JP2019519022A - バーコードを走査し寸法決定する方法及び装置 - Google Patents

バーコードを走査し寸法決定する方法及び装置 Download PDF

Info

Publication number
JP2019519022A
JP2019519022A JP2018554718A JP2018554718A JP2019519022A JP 2019519022 A JP2019519022 A JP 2019519022A JP 2018554718 A JP2018554718 A JP 2018554718A JP 2018554718 A JP2018554718 A JP 2018554718A JP 2019519022 A JP2019519022 A JP 2019519022A
Authority
JP
Japan
Prior art keywords
image
camera device
code
data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018554718A
Other languages
English (en)
Other versions
JP6992000B2 (ja
Inventor
ジーヘン ジア
ジーヘン ジア
ハオ ジェン
ハオ ジェン
デイヴィッド エス コック
デイヴィッド エス コック
Original Assignee
シンボル テクノロジーズ リミテッド ライアビリティ カンパニー
シンボル テクノロジーズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンボル テクノロジーズ リミテッド ライアビリティ カンパニー, シンボル テクノロジーズ リミテッド ライアビリティ カンパニー filed Critical シンボル テクノロジーズ リミテッド ライアビリティ カンパニー
Publication of JP2019519022A publication Critical patent/JP2019519022A/ja
Application granted granted Critical
Publication of JP6992000B2 publication Critical patent/JP6992000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1447Methods for optical code recognition including a method step for retrieval of the optical code extracting optical codes from image or text carrying said optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

実施は、バーコード走査及び寸法決定のためのデバイス及び方法に関する。幾つかの実施において、方法は、オブジェクトの2次元(2D)プレビュー画像を取得することと、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を判断し、オブジェクト上のコードの位置を判断することとを含む。方法はまた、1つ又はそれ以上の暗領域に基づいてオブジェクトの3次元(3D)画像を取得することと、3D画像を処理して、深度データを判断し、オブジェクトの寸法を求めることも含む。方法はまた、処理された3D画像内の深度データに基づいて、オブジェクトの2Dデータ・キャプチャ画像を取得することも含み、ここで、2Dデータ・キャプチャ画像はコードをキャプチャする。方法はまた、2Dデータ・キャプチャ画像に基づいてコードを読み取るステップも含む。
【選択図】図6

Description

本発明は、バーコードを走査し寸法決定する方法及び装置に関する。
輸送及び物流産業において、配送前のパッケージの正確な測定は重要な仕事である。寸法測定及び重量測定は、パッケージを配送する前の共通の測定である。配送前の別の一般的な仕事は、バーコードの走査である。バーコード走査は、通常、撮像スキャナを用いて達成され、そこで、撮像スキャナは、バーコード全体の写真を撮り、画像処理アルゴリズムを実行しているプロセッサがバーコードを認識し、デコードする。バーコード走査は、モバイル機器で実施されることが多い。
別個の図面全体にわたって同様の参照番号が同一の又は機能的に類似の要素を示す添付図面は、以下の詳細な説明と共に本明細書に組み入れられかつその一部を形成し、また、本明細書で説明される概念の実施をさらに示し、それらの実施の種々の原理及び利点を説明する役割を果たす。
幾つかの実装による、寸法決定(dimensioning)及びバーコード走査のための例示的なデバイスを示す。 幾つかの実装による、例示的なデバイスのブロック図を示す。 幾つかの実装による、バーコード走査のための例示的な方法のフローチャートを示す。 幾つかの実装による、寸法決定のための例示的な方法のフローチャートを示す。 幾つかの実装による、バーコード走査及び寸法決定のための例示的な方法のフローチャートを示す。 幾つかの実装による、バーコード走査及び寸法決定のための例示的なワークフローのブロック図を示す。 幾つかの実装による、物理的オブジェクトのデジタル画像及びその寸法、並びにバーコード読み出しを与える例示的なユーザ・インターフェースを示す。
当業者であれば、図面内の要素は簡素化及び明瞭化を目的として例示されており、必ずしも縮尺通り描かれていないことを認識するであろう。例えば、図面内の要素の一部の寸法は、本明細書の実施の理解を深めるのに役立つように他の要素に対して誇張されている場合がある。
装置及び方法の構成要素は、適切な場合には図面内に従来の記号で表されており、本明細書の説明の利益を有する当業者であれば容易に明らかであろう詳細によって本開示を不明瞭にしないように、本明細書の実施の理解に関連する特定の詳細のみを示している。
本明細書の態様は、オブジェクトの2次元(2D)プレビュー画像を取得することであって、2Dプレビュー画像は2Dカメラ・デバイスから得られる、取得することを含む方法を提供する。方法はまた、2Dプレビュー画像を処理してオブジェクト上のコードの位置を判断することも含む。本明細書でより詳細に説明されるように、コードは、バーコードとすることができる。方法はまた、オブジェクトの3次元(3D)画像を取得することであって、3D画像は3Dカメラ・デバイスから得られる、取得することも含む。方法はまた、3D画像を処理して深度データを判断することも含む。方法はまた、処理された3D画像内の深度データに基づいて、オブジェクトの2Dデータ・キャプチャ画像を取得することであって、2Dデータ・キャプチャ画像はコードをキャプチャし、2Dデータ・キャプチャ画像は2Dカメラ・デバイスから得られる、取得することも含む。方法はまた、2Dデータ・キャプチャ画像に基づいてコードを読み取ることも含む。
幾つかの実施において、3Dカメラ・デバイスは、赤外線カメラ・デバイスとすることができる。幾つかの実施において、方法は、処理された3D画像内の深度データに基づいて、2Dカメラ・デバイスのレンズをコードに合焦させることをさらに含むことができる。幾つかの実施において、方法は、インジケータをユーザに提供することであって、インジケータは、処理された3D画像内の深度データに基づいて2Dカメラ・デバイスをオブジェクトに対して最適に位置決めするようにユーザを案内する、提供することをさらに含むことができる。幾つかの実施において、方法は、処理された3D画像内の深度データに基づいてコードの解像度を調整することをさらに含むことができる。幾つかの実施において、コードは、バーコードとすることができる。幾つかの実施において、方法は、処理された3D画像内の深度データが深度閾値を上回るとき、コードの画像をクロッピングすることをさらに含むことができる。
幾つかの実施において、本明細書の別の態様は、2Dカメラ・デバイス、3Dカメラ・デバイス、及び1つ又はそれ以上のプロセッサを含むシステムを提供する。システムはまた、1つ又はそれ以上のプロセッサにより実行可能な命令を含むデータ・ストレージも含む。命令により、システムは、2Dカメラ・デバイスから得られたオブジェクトの2Dプレビュー画像を取得することと、2Dプレビュー画像を処理して、オブジェクト上のコードの位置を判断することと、オブジェクトの3D画像を取得することであって、3D画像は3Dカメラ・デバイスから得られる、取得することとを含むことができる動作を実行する。命令はまた、3D画像を処理して深度データを判断することと、処理された3D画像内の深度データに基づいてオブジェクトの2Dデータ・キャプチャ画像を取得することであって、2Dデータ・キャプチャ画像はコードをキャプチャし、2Dデータ・キャプチャ画像は2Dカメラ・デバイスから得られる、取得することと、2Dデータ・キャプチャ画像に基づいてコードを読み取ることとを含むこともできる。
幾つかの実施において、本明細書の別の態様は、2Dカメラ・デバイスから得られたオブジェクトの2Dプレビュー画像を取得することと、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域(dark area)を判断することと、処理された2Dプレビュー画像内の1つ又はそれ以上の暗領域に基づいてオブジェクトの3D画像を取得することであって、3D画像は3Dカメラ・デバイスから得られる、取得することと、3D画像を処理して、オブジェクトの寸法を求めることとを含む方法を提供する。
幾つかの実施において、3Dカメラ・デバイスは、赤外線カメラ・デバイスとすることができる。幾つかの実施において、方法は、オブジェクトの寸法を表示デバイス上に表示することをさらに含むことができる。幾つかの実施において、方法は、オブジェクトの2Dデータ・キャプチャ画像を表示デバイス上に表示することをさらに含むことができる。幾つかの実施において、方法は、処理された2Dプレビュー画像内の1つ又はそれ以上の暗領域に基づいて、3D画像の露出時間及び3D画像のゲインの少なくとも1つを調整することをさらに含むことができる。幾つかの実施において、3D画像を処理することは、オブジェクトの1つ又はそれ以上の面を特定することと、1つ又はそれ以上の面に基づいて関心ある領域(object of interest)を判断することと、処理された2Dプレビュー画像に基づいて3D画像の露出時間及び/又は3D画像のゲインを調整することとを含むことができる。幾つかの実施において、3D画像を処理することは、オブジェクトの面を特定することと、オブジェクトの特定された面に基づいてオブジェクトの寸法を求めることを含むことができる。
幾つかの実施において、本明細書の別の態様は、2Dカメラ・デバイス、3Dカメラ・デバイス、1つ又はそれ以上のプロセッサ、及び命令を含むデータ・ストレージを含むシステムを提供する。命令は、システムに、オブジェクトの2Dプレビュー画像を取得することであって、2Dプレビュー画像は2Dカメラ・デバイスから得られる、取得することを含む動作を実行させるために、1つ又はそれ以上のプロセッサにより実行可能である。動作はまた、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を判断することも含む。動作はまた、処理された2Dプレビュー画像内の1つ又はそれ以上の暗領域に基づいてオブジェクトの3D画像を取得することであって、3D画像は3Dカメラ・デバイスから得られる、取得することも含む。動作はまた、3D画像を処理して、オブジェクトの寸法を求めることも含む。
幾つかの実施において、本明細書の別の態様は、2Dカメラ・デバイスから得られたオブジェクトの2Dプレビュー画像を取得することを含む方法を提供する。方法は、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を判断し、オブジェクト上のコードの位置を判断することをさらに含む。方法はまた、1つ又はそれ以上の暗領域に基づいてオブジェクトの3D画像を取得することであって、3D画像は3Dカメラ・デバイスから得られる、取得することも含む。方法はまた、3D画像を処理して、深度データを判断し、オブジェクトの寸法を求めることも含む。方法はまた、処理された3D画像内の深度データに基づいてオブジェクトの2Dデータ・キャプチャ画像を取得することであって、2Dデータ・キャプチャ画像はコードをキャプチャし、2Dデータ・キャプチャ画像は2Dカメラ・デバイスから得られる、取得することも含む。方法はまた、2Dデータ・キャプチャ画像に基づいてコードを読み取ることも含む。
図1は、幾つかの実施による、寸法決定及びバーコード走査のための例示的なデバイス100を示す。本明細書で説明されるように、バーコード走査及び寸法決定は、1つ又はそれ以上のデジタル画像及び深度データに基づく。図2は、幾つかの実施による、図1のデバイス100のブロック図を示す。
図1及び図2を参照すると、種々の実装において、デバイス100は、携帯情報端末(PDA)、タブレット、又はいずれかの適切な手持ち式デバイスとすることができる。示されるように、デバイス100は、2次元(2D)カメラ・デバイス102と、深度感知デバイス104とも呼ぶことができる3次元(3D)カメラ・デバイス104と、寸法決定プロセッサ及び/又はバーコード読み取りプロセッサ220と呼ぶことができる少なくとも1つのプロセッサ220とを含む。この例示的な実施において、2Dカメラ・デバイス102はデバイス100内に組み込まれている。従って、2Dカメラ・デバイス102は、点線で示される。示されるように、2Dカメラ・デバイス102は、2Dカメラ・レンズ106を含み、3Dカメラ・デバイス104は、3Dカメラ・レンズ108を含む。本明細書で示されるように、2Dカメラ・デバイス102は、バーコード・イメージャを含むことができる。実施形態において、2Dカメラ・デバイスは、赤・緑・青(RGB)カメラとすることができる。同様に、3Dカメラ・デバイスは、赤外線カメラ・デバイスとすることができる。幾つかの実施において、3Dカメラ・デバイスは、レーザ・パターン・エミッタ110を含むこともできる。
種々の実装において、プロセッサ220は、2Dカメラ・デバイスから得られたオブジェクトの2Dプレビュー画像を取得し、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域(例えば、所定の輝度閾値を下回る画像領域、及び/又は黒色若しくは実質的に黒色の画像領域のものを含む所定の暗色を有する画像領域)を判断し、かつ、オブジェクト上のコードの位置を判断し、1つ又はそれ以上の暗領域の1つ又はそれ以上に基づいてオブジェクトの3D画像を取得するように構成され、3D画像は3Dカメラ・デバイスから得られる。プロセッサは、3D画像を処理して、深度データを判断し、オブジェクトの寸法を求めるようにさらに構成することができる。プロセッサはまた、処理された3D画像内の深度データに基づいてオブジェクトの2Dデータ・キャプチャ画像を取得するように構成することもでき、2Dデータ・キャプチャ画像はコードをキャプチャし、かつ、2Dデータ・キャプチャ画像は2Dカメラ・デバイスから得られる。プロセッサはまた、2Dデータ・キャプチャ画像に基づいてコードを読み取るように構成することもできる。
種々の実装において、2Dカメラ・デバイス102は、カメラ102と交換可能に呼ぶことができ、3Dカメラ・デバイス104は、深度感知デバイス104と交換可能に呼ぶことができる。また、プロセッサ220は、寸法決定プロセッサ及び/又はバーコード読み取りプロセッサ220と交換可能に呼ぶことができる。
さらに図2を参照すると、デバイス100は、メモリ222、通信インターフェース224(インターフェース224と交換可能に呼ばれる)、表示デバイス126、少なくとも1つの入力デバイス228、スピーカ232、及びマイクロフォン234をさらに含む。デバイス100及びその構成要素が、ここでさらに詳細に説明される。デバイス100は、モバイル機器、又はグラフィックス処理ユニット(GPU)、グラフィックス処理デバイス、グラフィックス処理エンジン、ビデオ処理デバイス等を有する他の携帯型コンピューティング・デバイスを含むことができる。デバイス100は、カメラ102及び深度感知デバイス104の視野においてオブジェクトの寸法を決定するために、画像及び深度データを取得する。実施形態において、デバイス100は、これらに限定されるものではないが、在庫の追跡又は他の処理、小包の配送、小売りアイテム、医療用品等を含む、例えば、倉庫、小売店、医療の機能などの特化した機能を有するデバイスを含む。種々の他の実施形態において、デバイス100は、モバイル・コンピューティング・デバイス、タブレット、ラップトップ、又はデスクトップ・コンピューティング・デバイス、PDA、スマートフォン、インターネット対応アプライアンス、電子カメラ等のような種々の形状因子を取ることができる。他の適切なデバイスも、本実施の範囲内にある。
デバイス100は、無線周波数識別(RFID)及び/又は近距離場通信(NFC)読取装置、レーザ・ベースのバーコードスキャナ、ディスプレイ126とは別個のものとすることができる、又はその部分を形成することができる1つ又はそれ以上のハンドル、並びに、カメラ102、104、レーザ・ベースのスキャナ、RFID、NFC読取装置、又は別のデータ取得デバイスのうちの1つ又はそれ以上をトリガするためのトリガのうちの1つをさらに含むことができる。一実施形態において、トリガは、例えば、ハンドル内に統合された、又はデバイス100のハウジング上のどこかに配置された、デバイス100内に組み込まれたハードウェア・トリガ・スイッチである。代替的に又はこれに加えて、トリガは、表示デバイス126のタッチスクリーン上に表示される、ボタンなどのグラフィカル・ユーザ・インターフェース・コンポーネントとすることができる。
種々の実施において、カメラ102は、これに限定されるものではないが、ビデオ・ストリームにおける画像を含むデジタル画像を取得するように構成されたデジタルカメラ、RGBデジタルカメラ等を含むことができる。カメラ102の詳細は示されないが、カメラ102は、これらに限定されるものではないが、それぞれの電荷結合素子(CCD)等、並びに、それぞれのレンズ、それぞれの合焦デバイス(これに限定されるものではないが、音声コイル等)などを含む、デジタル画像を取得するためのコンポーネントを含むと仮定される。従って、カメラ102からのデータは、一般に、2次元データ、及び具体的には、2D色座標及び/又は輝度座標のアレイを含むことができる値の2Dアレイを含む。深度感知デバイス104は、飛行時間型(time−of−flight;TOF)カメラ、アクティブ・ステレオビジョンカメラ(これに限定されるものではないが、赤外線を含むそれ自体の光を投影することができる)、及びパッシブ・ステレオビジョン・カメラ(周囲光に依存する)のうちの1つ又はそれ以上を含むことができる。種々の実施において、これらの異なる技術は、異なる作業条件及び異なる作業範囲に適用することができる。例えば、直射日光においては、パッシブ・ステレオビジョン・カメラが好ましい。長い作業範囲においては、TOFが好ましく、小さいボックスを用いる室内用途においては、構造化光(structured light)(例えば、アクティブ・ステレオビジョン)が好ましい。しかしながら、他の深度感知デバイスも、本実施の範囲内にある。幾つかの実施において、深度感知デバイス104は、ステレオビジョンカメラを形成するカメラ102を含むことができる、一対のカメラを含み得る。深度感知デバイス104が構造化光カメラを含む場合、深度感知デバイス104は、構造化光を投影するように構成されたデバイスと、構造化光により照射される物理的オブジェクトの画像をキャプチャするためのカメラとを含むことができる。深度感知デバイス104がTOFカメラを含む場合、深度感知デバイス104は、こうした機能を与えるためのコンポーネントを含む。
深度感知デバイス104は、視野にわたって深度を感知するように構成される。特に、深度感知デバイス104からの深度データを処理して、深度感知デバイス104の視野の3次元マップを生成することができる。従って、深度感知デバイス104からのデータは、3次元データと呼ぶことができ、深度座標の2次元アレイを含むことができる(例えば、2次元アレイ内の各要素は、対応する深度と関連付けられる)。
深度感知デバイス104からの深度データは、一般に、深度感知デバイス104から深度感知デバイス104の視野内のオブジェの部分までの距離を表す。幾つかの実施において、深度データは、選択された基準座標系及び/又は所定の基準座標系における3次元座標を含み得る「実世界座標」を含むこと、及び/又はこれに変換することができる。幾つかの実施において、こうした基準座標系は、深度感知デバイス104に関連し得る(例えば、深度感知デバイス104は、基準座標系の起点を含み得る)。他の実施において、こうした基準系は、例えば、倉庫内のポイント、及び/又は全地球測位システム(GPS)デバイスを用いて求められる地理的座標などの固定座標に関連し得る。後者の実施において、デバイス100は、GPSデバイスを含むことができ、深度感知デバイス104からの深度データの座標は、GPSデータベースに関して定められた起点に対して決定することができる。
図1に示されるように、カメラ102及び深度感知デバイス104の各々の外部コンポーネントは、デバイス100の後側上に配置することができ、表示デバイス126は、デバイス100の前側上に配置することができるので、デジタル画像及び深度データは、デバイス100の後側でキャプチャすることができる。言い換えれば、カメラ102及び深度感知デバイス104の各々の視野は、デバイス100の後側の面に対して垂直な軸線に沿って特定のポイントで重なり合うことがある。
さらに、同じく図1に示されるように、レンズ等のようなカメラ102及び深度感知デバイス104の画像キャプチャ・コンポーネント及び/又はデータ・キャプチャ・コンポーネントは、ある距離だけ隔てることができ、カメラ102からの画像及び深度感知デバイス104からの深度データは、一般に、類似の視野にわたる深度を像形成及び/又は感知する。言い換えれば、カメラ102及び深度感知デバイス104のそれぞれの視野は、一般に、実質的に重なり合う。幾つかの実施において、カメラ102及び深度感知デバイス104の、レンズ等は、可能な限り近接している。これにより、それらの間の視差が低減され、かつ、カメラ102により像形成されるオブジェクトについて、深度データをキャプチャできることも保証される。
図1及び図2の各々におけるカメラ102及び深度感知デバイス104の各々の位置は、単に概略的なものであり、必ずしもカメラ102及び深度感知デバイス104の各々の実際の相対位置を表すものではないことに留意されたい。例えば、カメラ102及び深度感知デバイス104は、デバイス100上のどこに配置してもよい(視野は、少なくとも部分的に重なり合うので、それぞれの視野内の物理的オブジェクトは、どちらもカメラ102により像形成され、深度感知デバイス104により感知され得ると仮定する)。
幾つかの実施において、カメラ102及び深度感知デバイス104は、空間内の同じポイントを占めるので、それぞれの視野は同一である。幾つかの実施において、カメラ102は、RGBカメラ(例えば、カメラ102)及びTOFカメラ(例えば、深度感知デバイス104)を含むことができる。特定の構成は変わることがあり、特定の実施によって決まる。さらに、こうした構成は、デジタル画像の前処理を可能にし、深度データが、対応する領域及び/又はピクセルを位置合わせして、「ピクセル・シャドーイング(pixel shadowing)」及び「暗領域(dark region)」を最小にすることを可能にする。例えば、視差のため、場合によっては、視野内のオブジェクトの配置のため、カメラ102に視認可能な領域が深度感知デバイス104には見えない、又は逆も同様である。このことは、深度データが存在する領域における画像データの不在、及び/又は画像データが存在する領域における深度データの不在をもたらし得る。そうした領域が大きい場合、それにより、本明細書で説明される技術を用いて処理されるデータが歪むことがあり、従って、カメラ102及び深度感知デバイス104の最も近い可能なコロケーション(co−location)が好ましい。
プロセッサ220は、これらに限定されるものではないが、1つ又はそれ以上の中央プロセッサ(CPU)及び/又は1つ又はそれ以上の処理ユニット及び/又は1つ又はそれ以上のグラフィック処理ユニットを含むプロセッサ及び/又は複数のプロセッサを含むことができ、いずれにせよ、プロセッサ220は、ハードウェア要素及び/又はハードウェア・プロセッサを含む。実際に、幾つかの実施において、プロセッサ220は、デバイス100の機能を実装するように具体的に構成された、特定用途向け集積回路(ASIC)及び/又はフィールド・プログラマブル・ゲート・アレイ(FPGA)を含むことができる。従って、以下にさらに詳細に説明されるように、デバイス100は、一般的なコンピューティング・デバイスではなく、デジタル画像及び深度データを用いた寸法決定、並びにバーコード走査及び読み取りを含む、特定の機能を実装するように具体的に構成されたデバイスである。例えば、デバイス100及び/又はプロセッサ220は、具体的には、デジタル画像及び深度データを用いて、カメラ102及び深度感知デバイス104の視野においてオブジェクトを寸法決定し、バーコードを読み取るように構成されたエンジンを含むことができる。
メモリ222は、不揮発性ストレージ・ユニット(例えば、消去可能電子的プログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリ等)及び揮発性ストレージ・ユニット(例えば、ランダム・アクセス・メモリ(RAM))を含むことができる。本明細書で説明されるようなデバイス100の機能上の教示を実装するプログラミング命令は、一般的に、メモリ222内に恒久的に維持され、そうしたプログラミング命令の実行中、揮発性ストレージを適切に利用するプロセッサ220により使用される。当業者であれば、メモリ222は、プロセッサ220上で実行可能なプログラミング命令を格納することができるコンピュータ可読媒体の一例であることを認識する。さらに、メモリ222はまた、メモリ・ユニット及び/又はメモリ・モジュール及び/又は不揮発性メモリの一例でもある。
特に、幾つかの実施において、メモリ222は、プロセッサ220により実行されたとき、プロセッサ220がオブジェクトの2Dプレビュー画像を取得するのを可能にするアプリケーション236を格納することができ、2Dプレビュー画像は2Dカメラ・デバイスから得られる。アプリケーション236はまた、プロセッサ220が、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を判断し、オブジェクト上のコードの位置を判断することも可能にする。アプリケーション236はまた、プロセッサ220が、1つ又はそれ以上の暗領域のうちの1つ又はそれ以上に基づいてオブジェクトの3D画像を取得するのも可能にし、3D画像は3Dカメラ・デバイスから得られる。アプリケーション236はまた、プロセッサ220が、3D画像を処理して、深度データを判断し、オブジェクトの寸法を求めることも可能にする。アプリケーション236はまた、プロセッサ220が、処理された3D画像内の深度データに基づいて、オブジェクトの2Dデータ・キャプチャ画像を取得することも可能にし、2Dデータ・キャプチャ画像はコードをキャプチャし、かつ、2Dデータ・キャプチャ画像は2Dカメラ・デバイスから得られる。アプリケーション236はまた、プロセッサ220が、2Dデータ・キャプチャ画像に基づいてコードを読み取ることも可能にする。一実施形態において、プロセッサ220は、上記の機能を実行するために、アプリケーション236の代わりに又はこれに加えて、特別に構成されたファームウェアと対話する。
以下にさらに詳細に説明されるように、プロセッサ220は、カメラ102からデジタル画像をレンダリングすること、デジタル画像内のオブジェクトを特定すること、デコードされたバーコードを表示すること、及びそうした寸法が求められていると仮定して、オブジェクトの寸法を与えること、のうちの1つ又はそれ以上のために、表示デバイス126を制御するように構成することができる。
デバイス100は、一般に、入力データを受け取るように構成された少なくとも1つの入力デバイス228を含み、これらに限定されるものではないが、キーボード、キーパッド、ポインティング・デバイス、マウス、トラックホイール、トラックボール、タッチパッド、タッチスクリーン(例えば、表示デバイス126と統合された)等を含む、入力デバイスのいずれかの適切な組み合わせを含むことができる。他の適切な入力デバイスも、本実施の範囲内にある。幾つかの実施において、入力デバイス228及び表示デバイス126の1つ又はそれ以上は、デバイス100の外部にあり、プロセッサ220は、適切な接続及び/又はリンクを介していずれかの外部コンポーネントと通信することができる。
示されるように、デバイス100は、随意的なスピーカ232又は随意的なマイクロフォン234(そのいずれも、代替的にデバイス100の外部にあってもよい)をさらに含む。スピーカ232は、音声データを音に変換して、警報音、遠隔通信デバイスからの可聴式通信等のうちの1つ又はそれ以上を提供するためのいずれかの適切なスピーカを含む。マイクロフォン234は、音を受け取り、音声データに変換するためのいずれかの適切なマイクロフォンを含む。スピーカ232及びマイクロフォン234は、デバイス100において電話及び/又は通信機能を実施するように組み合わせて使用することができる。
示されるように、プロセッサ220はまた、1つ又はそれ以上の通信ネットワーク(図示せず)と無線通信するように構成された、1つ又はそれ以上の無線機及び/又はコネクタ及び/又はネットワーク・アダプタとして実装することができる随意的なインターフェース224にも接続される。インターフェース224は、これらに限定されるものではないが、ユニバーサル・シリアル・バス(USB)ケーブル、シリアル・ケーブル、無線リンク、携帯電話リンク、セルラー式ネットワーク・リンク(これらに限定されるものではないが、ユニバーサル・モバイル遠距離通信システム(UMTS)、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM(登録商標))、符号分割多元接続(code division multiple access;CDMA)、周波数分割複信(frequency division duplexing;FDD)、ロング・ターム・エボリューション(long term evolution;LTE)、時分割複信(time division duplexing;TDD)、TDDロング・ターム・エボリューション(TDD−LTE)、時分割・同期・符号分割多元接続(time division synchronous code division multiple access;TD−SCDMA)等、無線データ、Bluetooth(登録商標)リンク、近距離無線通信(near field communication;NFC)リンク、無線ローカル・エリア・ネットワーク(WLAN)リンク、WiFiリンク、WiMaxリンク、パケット・ベース・リンク、インターネット、アナログ・ネットワーク、公衆電話網(PSTN)、アクセス・ポイント等、及び/又はその組み合わせのような、2G、2.5G、3G、4G+を含む)などの1つ又はそれ以上の通信ネットワークへの1つ又はそれ以上の通信リンクを実装するために使用されるネットワーク・アーキテクチャに対応するように構成されることが理解されるであろう。
示されないが、デバイス100は、これらに限定されるものではないが、バッテリ、電源パック等、及び/又は主電源への接続、及び/又は電源アダプタ(例えば、交流−直流(AC−DC)アダプタ)を含む、電源をさらに含む。一般に、電源は、デバイス100のコンポーネントに電力供給する。
従って、一般に、デバイス100についての多種多様の構成が考えられることを理解されたい。
ここで、限定されない実施に従った、デジタル画像及び深度データを用いてバーコードを走査し、読み取るための方法のフローチャートのブロック図を示す図3に注意を向ける。本明細書に説明される方法及び他の方法の説明を助けるために、方法は、デバイス100を用いて、具体的にはプロセッサ220により、プロセッサ220がメモリ222に格納された命令(例えば、アプリケーション236)を処理するときに実行されると仮定される。実際に、図1及び図2に示されるようなデバイス100は、他の構成を有することもできる。さらに、方法の以下の議論は、デバイス100及びその種々のコンポーネントのさらなる理解をもたらす。しかしながら、デバイス100及び/又は本明細書で説明される方法は、変わることもあり、互いに関連して本明細書に説明されるように正確に機能する必要はなく、また、そうした変形は本実施の範囲内にあることを理解されたい。
それに関係なく、特に断りのない限り、本明細書で説明される方法を、示されるような正確な順序で実行する必要がないことが強調される。同様に、種々のブロックは、連続的に及び/又は並行して実行することができる。従って、本明細書で説明される方法の要素は、ここでは「ステップ」ではなく、「ブロック」と呼ばれる。しかしながら、その方法は、デバイス100の変形上でも実施され得ることも理解されたい。
図3は、幾つかの実施による、バーコード走査のための例示的な方法のフローチャートを示す。本明細書で説明されるように、バーコード走査は、1つ又はそれ以上のデジタル画像及び深度データに基づく。図2及び図3を参照すると、方法は、プロセッサ220がオブジェクトの2次元(2D)プレビュー画像を取得するブロック302で開始する。種々の実施において、2Dプレビュー画像は、2Dカメラ・デバイスから得られる。ブロック304において、プロセッサ220は、2Dプレビュー画像を処理して、オブジェクト上の、バーコードのようなコードの位置を判断する。ブロック306において、プロセッサ220は、オブジェクトの3次元(3D)画像を取得する。種々の実施において、3D画像は、3Dカメラ・デバイスから得られる。
ブロック308において、プロセッサ220は、3D画像を処理して、深度データを判断する。幾つかの実施において、3D画像を処理することは、バーコードと関連した2Dプレビュー画像内のピクセルに対応する3D画像内のピクセルを判断することを含むことができる。幾つかの実施において、3D画像を処理することは、3D画像内の対応するピクセルの深度値を求めることを含むことができる。種々の実施において、深度値は、2Dカメラ102に、オブジェクトと2Dカメラ102との間の距離がどうであるかを知らせ、そのことは、2Dカメラ102がオブジェクト上でより良好に合焦するのを助ける。
ブロック310において、プロセッサ220は、処理された3D画像内の深度データに基づいて、オブジェクトの2Dデータ・キャプチャ画像を取得する。種々の実施において、2Dデータ・キャプチャ画像はコードをキャプチャし、2Dデータ・キャプチャ画像は、2Dカメラ・デバイスから得られる。
幾つかの実施において、プロセッサ220は、プロセッサ220が処理された3D画像内の深度データに基づいて2Dカメラ・デバイスのレンズをコードに合焦させ、それを用いて2Dカメラ・デバイスの焦点距離を判断することができるという点で、処理された3D画像内の深度データに基づいて、オブジェクトの2Dデータ・キャプチャ画像を取得する。次に、プロセッサ220は、2Dカメラのレンズを合焦させた後、2Dデータ・キャプチャ画像を取得する。
種々の実施において、プロセッサ220は、インジケータをユーザに提供し、そこでインジケータは、処理された3D画像内の深度データに基づいて、オブジェクトに対する最適な焦点を達成するように2Dカメラ・デバイスを位置決めするように、ユーザを案内する。例えば、幾つかの実施において、インジケータは、データ・キャプチャ2Dプレビュー画像を取得するとき、オブジェクトに対して2Dカメラ・デバイスを最適に位置決めするように(例えば、より近くに又はさらに離れるように)ユーザを案内することができる。
幾つかの実施において、プロセッサ220は、処理された3D画像内の深度データに基づいて、バーコードの2Dカメラ解像度を調整する。
種々の実施において、プロセッサ220は、処理された3D画像内の深度データが所定の深度閾値を上回るとき、2Dカメラからコードの画像をクロッピングする。他の実施において、深度データが、バーコードの深度が閾値を下回ることを示すとき、プロセッサ220は、深度値をビニングすることにより2Dカメラの解像度を低下させる。1つの限定されない例において、3D深度データから、プロセッサは、オブジェクト(例えば、ボックス)が接近していることを知り、2D RGB画像を3264*2448から640*480解像度に縮小する。プロセッサはこれを行うのは、640*480解像度が、バーコードのデコードに十分であるためである。解像度が低下すると必要な計算が減り、そのため処理が加速する。別の限定されない例において、3D深度データから、プロセッサは、ボックスが遠くにあり、バーコードが、640*480 2D RGB画像で読み取るには小さすぎることを知る。これは、バーコード・デコードの失敗をもたらす。従って、プロセッサは、2D画像の解像度の元の3260*2448解像度に調整する(例えば、増加させる)。
ブロック312において、プロセッサ220は、2Dデータ・キャプチャ画像に基づいてコードを読み取る。幾つかの実施において、コードは、バーコードとすることができる。幾つかの実施において、コードは、1次元バーコードとすることができる。他の実施において、コードは、QRコード(登録商標)のような2次元バーコードとすることができる。更に別の実施形態において、プロセッサ220は、3D画像を用いて、ターゲット・オブジェクトを配置し、次に、2Dカメラ・デバイスにより後で取得される2Dデータ・キャプチャ画像に基づいて、ターゲット・オブジェクト上のバーコードを検索し、デコードする。
図4は、幾つかの実施による、寸法決定のための例示的な方法のフローチャートを示す。本明細書で説明されるように、寸法決定は、1つ又はそれ以上のデジタル画像及び深度データに基づく。図2及び図4を参照すると、方法は、プロセッサ220が、オブジェクトの2次元(2D)プレビュー画像を取得するブロック402で開始する。上述のように、2Dプレビュー画像は、2Dカメラ・デバイスから得られる。
ブロック404において、プロセッサ220は、2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を判断する。
ブロック406において、プロセッサ220は、処理された2Dプレビュー画像内の1つ又はそれ以上の暗領域に基づいて、オブジェクトの3次元(3D)画像を取得する。幾つかの実施において、3D画像を取得することは、3D画像の取得及び2Dプレビュー画像の取得が一緒に行われるという点で、2Dプレビュー画像の取得に基づく。
上述のように、3D画像は、3Dカメラ・デバイスから得られる。上述のように、3Dカメラ・デバイスは、赤外線カメラ・デバイスである。
種々の実施において、プロセッサ220は、暗領域に応じて3D画像を調整することができる。例えば、幾つかの実施において、プロセッサ220は、処理された2Dプレビュー画像内の1つ又はそれ以上の暗領域に基づいて、3D画像の露出時間、3D画像のゲイン、又はそれらの組み合わせを調整することができる。幾つかの実施において、露出値は、異なる暗領域について異なり得る。さらなる説明のために、幾つかの実施において、パッシブ・ステレオビジョン・システムを用いて、例えば、3D再構成を可能にするために、十分な光が必要とされる。従って、プロセッサは、2Dカメラ入力を組み込むことにより、ターゲット・ボックスにおいて光が十分であるかどうかを判断する。周囲光が十分でない場合、ターゲットは暗いか又は黒色であり、次に、パッシブ・ステレオビジョン・システムは、3Dデータを提供することができない。この場合、プロセッサは、3Dカメラの画像信号処理(ISP)を調整して、露出時間及び/又はゲインを調整し、ターゲットから十分な輝度を達成する。幾つかの実施において、構造化IRのような構造化光システムを用いて、暗い材料は黒色とすることができ、大部分の可視光及びIR光を吸収する。2Dカメラにおいて、この種の材料は、暗いか又は黒色である。3D構造化光システムにおいて、IRの大部分が吸収されるので、反射するIR信号は少なく、暗い色の領域から3Dセンサにより受け取られる。従って、この種の材料は、2D画像においても3D深度マップ画像においても暗い。これらの実施の両方において、プロセッサは、3Dカメラ・デバイスの露出及び/又はゲインを調整し、3D画像データの取得を向上させることができる。
幾つかの実施において、3D画像を処理するために、プロセッサ220は、オブジェクトの1つ又はそれ以上の面を特定することができる。次に、プロセッサ220は、1つ又はそれ以上の面に基づいて、関心ある領域を決定する。幾つかの実施において、例えば、関心ある領域(ROI)は、プレビュー画像内の十字線を用いて、ユーザにより決定することができる。ユーザは、十字線をボックス表面の1つの上に配置するように、センサ位置を調整することができる。これは、プロセッサがターゲットを配置するのを可能にする助けとなり得る。上述のように、次に、プロセッサ220は、処理された2Dプレビュー画像に基づいて、3D画像の露出時間、3D画像のゲイン、又はその組み合わせを調整することができる。幾つかの実施において、次に、プロセッサ220は、オブジェクトの1つ又はそれ以上の面に基づいて、オブジェクトの寸法を求めることができる。
ブロック408において、プロセッサ220は、3D画像を処理して、オブジェクトの寸法を求める。
幾つかの実施において、プロセッサ220は、オブジェクトの寸法を表示デバイス上に表示させることができる。幾つかの実施において、プロセッサ220は、オブジェクトの2Dデータ・キャプチャ画像を、求めた寸法と共に表示デバイス上に表示させることができる。
図5は、幾つかの実施による、バーコードの走査及び寸法決定のための例示的な方法のフローチャートを示す。本明細書で説明されるように、バーコードの走査及び寸法決定は、1つ又はそれ以上のデジタル画像及び深度データに基づく。図2及び図5を参照すると、ブロック502において、プロセッサ220は、オブジェクトの2Dプレビュー画像を取得する。上述のように、2Dプレビュー画像は、2Dカメラ・デバイスから得られる。
ブロック504において、プロセッサ220は、2Dプレビュー画像を処理し、1つ又はそれ以上の暗領域及びオブジェクト上のコードの位置を判断する。
ブロック506において、プロセッサ220は、1つ又はそれ以上の暗領域の1つ又はそれ以上に基づいて、オブジェクトの3D画像を取得する。上述のように、3D画像は、3Dカメラ・デバイスから得られる。
ブロック508において、プロセッサ220は、3D画像を処理して、深度データを判断し、オブジェクトの寸法を求める。
ブロック510において、プロセッサ220は、処理された3D画像内の深度データに基づいて、オブジェクトの2Dデータ・キャプチャ画像を取得する。種々の実施において、オブジェクト(例えば、ボックス)の3Dの位置及び寸法を用いて、境界が、それらの境界内のバーコードの検索のために確立される。種々の実施において、2Dデータ・キャプチャ画像はコードをキャプチャし、上述のように、2Dデータ・キャプチャ画像は、2Dカメラ・デバイスから得られる。
ブロック512において、プロセッサ220は、2Dデータ・キャプチャ画像に基づいて、コードを読み取る。
代替的に又はこれに加えて、プロセッサ220は、メモリ222に、オブジェクトのデジタル画像及び寸法の1つ又はそれ以上を格納することができる。代替的に及び/又はこれに加えて、プロセッサ220は、インターフェース224を用いて、オブジェクトのデジタル画像及び寸法の1つ又はそれ以上を、例えば外部デバイス及び/又は遠隔デバイスに伝送することができる。オブジェクトのデジタル画像及び寸法の1つ又はそれ以上のそうした伝送は、クラウド・ベースの倉庫業務、配送、在庫、小売、及び/又は医療目的、及び/又は他のクラウド・ベース機能と共に行うことができる。
幾つかの実施形態において、ボックス・サイズのようなオブジェクト・サイズの測定、及びオブジェクト上のバーコードのデコードは、本明細書に説明される方法を介して、2Dカメラ及び3Dカメラ・データを用いて並行して及び実質的に同時に達成することができる。
図6は、幾つかの実施による、バーコード走査及び寸法決定のための例示的なワークフローのブロック図を示す。本明細書で説明されるように、バーコード走査及び寸法決定は、1つ又はそれ以上のデジタル画像及び深度データに基づく。図示のように、2Dカメラ602は、2D画像604を提供する。2D画像604からもたらされるフローは、矢印606、608及び610で表される。3Dカメラ612は、3Dデータ614を提供する。3Dデータ614からもたらされるフローは、矢印616、618及び620で表される。矢印606は、2D画像が、2D画像604の関心ある領域(ROI)内の暗領域に関する情報をもたらすことを示す。図示のように、種々の実施において、暗領域に関する情報は、3Dデータ614と結合される。矢印616は、3Dデータ614が視野内のオブジェクトに関する深度マップ及び範囲情報をもたらすことを示す。図示のように、種々の実施において、暗領域に関する情報は、2D画像604と関連した情報と結合される。種々の実施において、深度マップは2D画像を含み、そこで、2D画像内の各ピクセルは、センサからオブジェクト上のこの特定のポイントまでの範囲を表す。
種々の実施において、2D画像604及び3Dデータ614の両方からの入力を用いて、プレビュー画像622を得ることができる。これは、それぞれ、矢印608(2D)及び矢印618(3D)で示される。幾つかの実施において、2D及び3D入力の両方からのデータを重ね合わせて又は結合して、ユーザに対する案内を提供することができる。例えば、案内は、ユーザに、デバイス100(例えば、2D及び3Dカメラ)をオブジェクトのより近くに又はそれからさらに離れるように動かすように指示することができる。幾つかの実施において、3D画像内の対応するピクセルが、2D画像内のピクセルと関連付けられ、深度値が読み取られる。幾つかの実施において、3Dカメラは、範囲情報の深度をオブジェクトに提供する。幾つかの実施において、バーコード・デコード範囲、例えば合焦の範囲は、0.5メートルと5メートルとの間である。幾つかの実施において、オブジェクトが2Dイメージャを介するバーコード・デコードの範囲外にある場合、エラー・メッセージをユーザに提供するために、深度情報が用いられる。幾つかの実施において、低反射率、露出過多、又は範囲外にあることにより引き起こされ得る非数(not a number;NAN)領域」は、「画像プレビュー」として表示され得る2D及び3D画像データにおいて重なり合い、これに応じて、後のキャプチャ画像において露出及びゲイン選択を回避する又は調整するようにユーザを案内するために用いられる。種々の実施において、3Dデータ614を処理して、種々のタイプの情報を生み出す。例えば、幾つかの実施において、3Dデータを処理して、2Dカメラについての範囲限界を得ることができる。次に、範囲限界を用いて、焦点を最適化し、自動焦点能力を与えることができる。一般に、照準目的のために、2Dカラー画像はより直観的である。幾つかの実施において、照準は、関心ある領域を選択し、バーコードを含み得る関心あるオブジェクトを選択するために十字線を用いて達成される。
種々の実施において、データ・キャプチャ画像624は、2D画像604及び3Dデータ614の両方からの入力を用いて得ることができ、それらを、上に概説したように処理して、オブジェクトの深度データ、範囲情報、及び寸法等を求めることができる。これは、矢印610(2D)及び矢印620(3D)で示される。幾つかの実施において、2Dカメラ・デバイスから得られ、コード又はバーコードをキャプチャする2Dキャプチャ画像は、処理された3D画像内の深度データに基づく。2D及び3Dデータの組み合わせを利用して、より高い性能が達成される。例証として、3D画像からの深度データに従って、2Dカメラ・レンズをバーコードに合焦させることができる。付加的に、深度データに基づいて、深度が閾値を下回る場合、すなわちバーコードが十分に近い場合、デコードのためにこれをデコーダに送る前に、ビニングを用いて解像度を低下させることにより、スループットを増大させることができる。それに応じて、深度が閾値を上回る場合、デコードのためにデータをデコーダに与える前に、バーコードをクロッピングすることにより、解像度を上げることができる。
図7は、幾つかの実施による、物理的オブジェクトのデジタル画像、並びにその寸法及びバーコード読み出しを与える例示的なユーザ・インターフェース700を示す。ユーザ・インターフェース700は、バーコード706を上に有し得るオブジェクト704を含む視野の2D画像702を示す。十字線707は、オブジェクト704の上面709上に示される。幾つかの実施において、十字線707は、関心ある領域(ROI)のユーザの選択を示す。幾つかの実施において、ROIは、オブジェクト704の選択された部分又は面のみを含むことができる。ひとたびROIが選択されると、次に、システムは、オブジェクト704の残り(例えば、オブジェクト704全体)を判断することができる。同じく、バーコード読み取り708及び寸法710も示される。種々の実施において、寸法は、長さ、幅、及び高さを含むことができる。
幾つかの実施において、システムは、バーコード走査及び寸法決定を実行することができ、それにより、ユーザが測定ボタン712を選択するのに応じて、バーコード706及び寸法が与えられる。幾つかの実施において、ユーザ・インターフェース700は、ドロップダウン・メニュー714を提供し、ユーザが画像のタイプを選択するのを可能にする。例えば、ドロップダウン・メニュー714は、選択時に、特定の実施に応じて、「カラー画像」、「白黒画像」、「深度マップ」等のような選択肢を示すことができる。幾つかの実施において、ユーザ・インターフェース700は、2D画像702を保存するためのボタン716及び関連した深度マップを保存するためのボタン718を含むことができる。深度マップの提供は図示されないが、本明細書での種々の実施に説明されるように、プロセッサ220は、依然として深度マップを生成し、深度マップは、ユーザ・インターフェース700を介して随意的に表示すること、及び/又は保存することが可能であることに留意されたい。
本明細書で説明される実装は、寸法決定のための種々の既知の寸法決定技術を利用することができる。例えば、幾つかの実施において、デジタル画像において特定されるオブジェクトに属するそれぞれの深度データ及びそれぞれの関連に基づいて、オブジェクトの寸法を計算する寸法決定技術を用いることができる。幾つかの実施において、3Dカメラから得られ、デジタル画像において特定されたオブジェクトと関連付けられた3Dポイント・クラウド・データに基づいてオブジェクトの寸法を計算する寸法卦亭技術を用いることができる。
以下の明細書において、具体的な実施が説明された。しかしながら、当業者であれば、以下の特許請求の範囲に記載されるような本明細書の範囲から逸脱することなく、種々の修正及び変更をなし得ることを理解する。従って、本明細書及び図面は、限定的な意味ではなく、例証的な意味とみなされるべきであり、また、全てのそのような修正は、本教示の範囲内に含まれることが意図される。
何らかの利益、利点、又は解決法をもたらし、又はより顕著にすることができる利益、利点、問題に対する解決法、及び任意の要素は、何れかの又は全ての特許請求の範囲の不可欠な、必要な又は本質的な特徴又は要素とみなすべきではない。本発明は、本出願の係属中に行われるあらゆる補正を含む添付の特許請求の範囲、及び発行された特許請求の範囲の全ての均等物によってのみ定められる。
さらに、本文書において、第1及び第2、上部及び底部、並びに同様のもののような関係を示す用語は、1つのエンティティ又は動作を別のエンティティ又は動作と区別するためのみに用いることができ、このようなエンティティ又は動作の間の何らかの実際のこのような関係又は順序を必ずしも必要とせず、又は意味するものではない。用語「備える」、「備えている」、「有する」、「有している」、「含む」、「含んでいる」、「収容する」、「収容している」、又はこれらの何れかの他の変形は、非排他的な包含をカバーすることが意図されており、要素のリストを備える、有する、含む、又は包含するプロセス、方法、物品、又は装置は、これらの要素のみを含むだけでなく、明白に列挙されていない他の要素、又はこのようなプロセス、方法、物品、又は装置に特有の他の要素を含むこともできる。「〜を備える」、「〜を有する」、「〜を含む」、「〜を包含する」の前にある要素は、それ以上の制約なしに、その要素を備える、有する、含む、又は包含するプロセス、方法、物品、又は装置における付加的な同一要素の存在を除外するものではない。用語「1つ(a)」及び「1つ(an)」は、本明細書において特に明示的に指定のない限り、1又はそれ以上のものとして定義される。用語「実質的に」、「本質的に」、「およそ」、「約」、又は他のこれらの何らかの変形は、当業者によって理解されるように近接したものとして定義され、限定されない実施では、これらの用語は、10%以内と定められ、別の実施では5%以内、別の実施では1%以内、更に別の実施では0.5%以内と定義される。本明細書で使用される用語「結合される」は、接続されるとして定義されるが、必ずしも直接的な接続及び機械的な接続ではない。特定の方法で「構成される」デバイス又は構造は、少なくともその方法で構成されるが、列挙されていない方法で構成することもできる。
一部の実施は、特定の非プロセッサ回路と協働して、本明細書で説明される方法及び/又は装置の一部、大部分、又は全ての機能を実施するように、1又はそれ以上のプロセッサを制御する、マイクロプロセッサ、デジタル・シグナル・プロセッサ、カスタマイズされたプロセッサ、フィールド・プログラマブル・ゲートアレイ(FPGA)、及び固有の格納プログラム命令(ソフトウェア及びファームウェアの両方を含む)のような1又はそれ以上の汎用又は専用プロセッサ(又は「処理デバイス」)から構成できることが理解されるであろう。或いは、一部又は全ての機能は、格納プログラム命令を有していない状態機械によって、又は1又はそれ以上の特定用途向け集積回路(ASIC)において実装することができ、各機能又は特定の機能の一部の組み合わせは、カスタム論理として実装される。当然ながら、2つの手法の組み合わせを使用することもできる。
さらに、一実施は、本明細書で説明される方法及び特許請求される方法を実行するようにコンピュータ(例えば、プロセッサを備える)をプログラミングするために格納されるコンピュータ可読コードを有するコンピュータ可読記憶媒体として実装することができる。このようなコンピュータ可読記憶媒体の例として、これらに限定されるものではないが、ハードディスク、コンパクト・ディスク・読み取り専用メモリ(CD−ROM)、光記憶デバイス、磁気記憶デバイス、読み取り専用メモリ(ROM)、プログラマブル読み取り専用メモリ(PROM)、及び消去可能プログラマブル読み取り専用メモリ)、EEPROM(電気的消去可能プログラマブル読み取り専用メモリ)、及びフラッシュメモリが挙げられる。さらに、当業者には、例えば、利用可能な時間、現在の技術及び経済的な考慮事項によって動機付けられる可能な多大な労力及び多くの設計上の選択肢にもかかわらず、本明細書で開示される概念及び原理により導かれたとき、最小限の試みでこのようなソフトウェア命令、プログラム、及びICを容易に生成できることが予期される。
本開示の要約書は、読み手が技術開示の性質を迅速に確認できるようにするために提供される。要約書は、特許請求の範囲の範囲又は意味を解釈又は限定するために使用されるものではないという理解の下に提示される。さらに、上記の詳細な説明では、本開示を簡素化するために、種々の実施において種々の特徴がグループ化されていることが分かる。本開示の方法は、特許請求される実施態が、各請求項において明示的に記載されるよりも多くの特徴を必要とするという意図を示すものと解釈すべきではない。むしろ、以下の特許請求の範囲が示すように、本発明の主題は、開示される単一の実施の全ての特徴に存在するわけではない。従って、以下の特許請求の範囲は、詳細な説明に組み込まれており、各請求項は、別個に特許請求される主題として独立している。
100:デバイス
102:カメラ
104:深度感知デバイス104
126:表示デバイス
220:プロセッサ
222:メモリ
224:通信インターフェース
228:入力デバイス
232:スピーカ
234:マイクロフォン
236:アプリケーション
602:2Dカメラ
604、702:2D画像
612:3Dカメラ
614:3Dデータ
622:プレビュー画像
700:ユーザ・インターフェース
706:バーコード
704:オブジェクト
707:十字線
708:バーコード読み取り
710:寸法
712:ボタン
714:ドロップダウン・メニュー

Claims (20)

  1. 2Dカメラ・デバイスから得られる、オブジェクトの2次元(2D)プレビュー画像を取得するステップと、
    前記2Dプレビュー画像を処理して、前記オブジェクト上のコードの位置を求めるステップと、
    前記オブジェクトの、3Dカメラ・デバイスから得られる3次元(3D)画像を取得するステップと、
    前記3D画像を処理して、前記オブジェクトと関連した深度データを求めるステップと、
    前記処理された3D画像内の前記深度データに基づいて、前記オブジェクトの前記コードをキャプチャするものであり前記2Dカメラ・デバイスから得られる、2Dデータ・キャプチャ画像を取得するステップと、
    前記2Dデータ・キャプチャ画像に基づいて前記コードを読み取るステップと、
    を含むことを特徴とする方法。
  2. 前記3Dカメラ・デバイスは、赤外線カメラ・デバイスであることを特徴とする、請求項1に記載の方法。
  3. 前記深度データに基づいて、前記2Dカメラ・デバイスのレンズを前記コードに合焦させるステップをさらに含むことを特徴とする、請求項1に記載の方法。
  4. インジケータをユーザに提供するステップをさらに含み、前記インジケータは、前記深度データに基づいて、前記2Dカメラ・デバイスを前記オブジェクトに対して最適に位置決めするよう、前記ユーザを案内することを特徴とする、請求項1に記載の方法。
  5. 前記処理された3D画像内の前記深度データに基づいて前記コードの解像度を調整するステップをさらに含むことを特徴とする、請求項1に記載の方法。
  6. 前記コードはバーコードであることを特徴とする、請求項1に記載の方法。
  7. 前記処理された3D画像内の前記深度データが所定の深度閾値を超えたとき、前記コードの画像をクロッピングするステップをさらに含むことを特徴とする、請求項1に記載の方法。
  8. 2次元(2D)カメラ・デバイスと、
    3次元(3D)カメラ・デバイスと、
    1つ又はそれ以上のプロセッサと、
    データ・ストレージと、
    を備え、前記データ・ストレージは、
    2Dカメラ・デバイスから得られる、オブジェクトの2Dプレビュー画像を取得することと、
    前記2Dプレビュー画像を処理して、前記オブジェクト上のコードの位置を求めることと、
    前記オブジェクトの、3Dカメラ・デバイスから得られる3D画像を取得することと、
    前記3D画像を処理して、前記オブジェクトと関連した深度データを求めることと、
    前記処理された3D画像内の前記深度データに基づいて、前記コードをキャプチャするものであり前記2Dカメラ・デバイスから得られる、前記オブジェクトの2Dデータ・キャプチャ画像を取得する動作と、
    前記2Dキャプチャ画像に基づいて前記コードを読み取る動作と、
    を含む動作を前記システムに行わせるための、前記1つ又それ以上のプロセッサにより実行可能な命令を収容する
    ことを特徴とするシステム。
  9. 2Dカメラ・デバイスから得られる、オブジェクトの2次元(2D)プレビュー画像を取得するステップと、
    前記2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を求めるステップと、
    前記処理された2Dプレビュー画像内の前記1つ又はそれ以上の暗領域に基づいて、前記オブジェクトの、3Dカメラ・デバイスから得られる3次元(3D)画像を取得するステップと、
    前記3D画像を処理して、前記オブジェクトの寸法を求めるステップと、
    を含むことを特徴とする方法。
  10. 前記3Dカメラ・デバイスは、赤外線カメラ・デバイスであることを特徴とする、請求項9に記載の方法。
  11. 前記オブジェクトの前記寸法を表示デバイス上に表示するステップをさらに含むことを特徴とする、請求項9に記載の方法。
  12. 前記オブジェクトの前記2Dプレビュー画像を表示デバイス上に表示するステップをさらに含むことを特徴とする、請求項9に記載の方法。
  13. 前記処理された2Dプレビュー画像内の前記1つ又はそれ以上の暗領域に基づいて、前記3D画像の露出時間及び前記3D画像のゲインのうちの少なくとも1つを調整するステップをさらに含むことを特徴とする、請求項9に記載の方法。
  14. 前記3D画像を処理するステップは、
    前記オブジェクトの1つ又それ以上の面を特定するステップと、
    前記オブジェクトの前記1つ又それ以上の面に基づいて関心ある領域を判断するステップと、
    前記処理された2Dプレビュー画像に基づいて前記3D画像の露出時間及び前記3D画像のゲインのうちの少なくとも1つを調整するステップと、
    を含むことを特徴とする、請求項9に記載の方法。
  15. 前記3D画像を処理するステップは、
    前記オブジェクトの1つ又はそれ以上の面を定めるステップと、
    前記オブジェクトの前記1つ又はそれ以上の面に基づいて前記オブジェクトの寸法を求めるステップと、
    を含むことを特徴とする、請求項9に記載の方法。
  16. 2次元(2D)カメラ・デバイスと、
    3次元(3D)カメラ・デバイスと、
    1つ又はそれ以上のプロセッサと、
    データ・ストレージと、
    を備え、前記データ・ストレージは、
    オブジェクトの、前記2Dカメラ・デバイスから得られる2Dプレビュー画像を取得することと、
    前記2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を求めるステップと、
    前記処理された2Dプレビュー画像内の前記1つ又はそれ以上の暗領域に基づいて、前記オブジェクトの、前記3Dカメラ・デバイスから得られる3D画像を取得することと、
    前記3D画像を処理して、前記オブジェクトの寸法を求めることと、
    を含む動作をシステムに行わせるための、前記1つ又それ以上のプロセッサにより実行可能な命令を収容する
    ことを特徴とする、システム。
  17. 2Dカメラ・デバイスから得られる、オブジェクトの2次元(2D)プレビュー画像を取得するステップと、
    前記2Dプレビュー画像を処理して、1つ又はそれ以上の暗領域を求め、かつ、前記オブジェクト上のコードの位置を求めるステップと、
    前記1つ又はそれ以上の暗領域に基づいて、前記オブジェクトの、前記3Dカメラ・デバイスから得られる3次元(3D)画像を取得するステップと、
    前記3D画像を処理して、深度データを求め、かつ、前記オブジェクトの寸法を求めるステップと、
    前記処理された3D画像内の前記深度データに基づいて、前記コードをキャプチャするものであり前記2Dカメラ・デバイスから得られる、前記オブジェクトの2Dデータ・キャプチャ画像を取得するステップと、
    前記2Dキャプチャ画像に基づいて前記コードを読み取るステップと、
    を含むことを特徴とする方法。
  18. 前記3Dカメラ・デバイスは、赤外線カメラ・デバイスであることを特徴とする、請求項17に記載の方法。
  19. 前記3D画像からの前記深度データに基づいて、前記2Dカメラ・デバイスのレンズを前記コードに合焦させるステップをさらに含むことを特徴とする、請求項17に記載の方法。
  20. 前記3D画像からの前記深度データに基づいて、前記2Dカメラ・デバイスを前記オブジェクトに対して最適に位置決めするよう、前記ユーザを案内するインジケータを、ユーザに提供するステップをさらに含む、ことを特徴とする、請求項17に記載の方法。
JP2018554718A 2016-04-18 2017-03-29 バーコードを走査し寸法決定する方法及び装置 Active JP6992000B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/131,856 US9805240B1 (en) 2016-04-18 2016-04-18 Barcode scanning and dimensioning
US15/131,856 2016-04-18
PCT/US2017/024847 WO2017184310A1 (en) 2016-04-18 2017-03-29 Barcode scanning and dimensioning

Publications (2)

Publication Number Publication Date
JP2019519022A true JP2019519022A (ja) 2019-07-04
JP6992000B2 JP6992000B2 (ja) 2022-01-13

Family

ID=58503759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554718A Active JP6992000B2 (ja) 2016-04-18 2017-03-29 バーコードを走査し寸法決定する方法及び装置

Country Status (8)

Country Link
US (1) US9805240B1 (ja)
JP (1) JP6992000B2 (ja)
CN (1) CN109074469B (ja)
CA (1) CA3021484C (ja)
DE (1) DE112017002060T5 (ja)
GB (1) GB2564360B (ja)
MX (1) MX2018012667A (ja)
WO (1) WO2017184310A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10110826B2 (en) * 2014-02-25 2018-10-23 Sony Corporation Imaging with adjustment of angle of view
DE102015208121A1 (de) * 2015-04-30 2016-11-03 Prüftechnik Dieter Busch AG Verfahren zur Gewinnung von Informationen aus einem Kodierkörper, System mit einem Kodierkörper, Computerprogrammprodukt und Datenspeichermittel
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
WO2018204308A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Method and apparatus for object status detection
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US11093896B2 (en) 2017-05-01 2021-08-17 Symbol Technologies, Llc Product status detection system
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
EP3593234A1 (en) 2017-06-02 2020-01-15 Apple Inc. Device, method, and graphical user interface for handling data encoded in machine-readable format
US10397551B2 (en) * 2017-07-26 2019-08-27 Symbol Technologies, Llc Temperature compensation for image acquisition and processing apparatus and methods
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10817688B1 (en) * 2018-05-29 2020-10-27 Chi Fai Ho Apparatus and method to render services based on a label
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
FR3090123B1 (fr) * 2018-12-17 2021-01-15 Commissariat Energie Atomique Procédé de reconstruction d’une surface tridimensionnelle par un capteur matriciel ultrasonore
US11720766B2 (en) * 2018-12-28 2023-08-08 Packsize Llc Systems and methods for text and barcode reading under perspective distortion
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
CN110020681A (zh) * 2019-03-27 2019-07-16 南开大学 基于空间注意力机制的点云特征提取方法
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
CN111553951B (zh) * 2020-04-30 2023-10-24 山东新北洋信息技术股份有限公司 包裹处理设备和包裹处理方法
US11334739B2 (en) * 2020-05-29 2022-05-17 Zebra Technologies Corporation Barcode readers with 3D camera(s)
TWI789595B (zh) * 2020-05-29 2023-01-11 阿丹電子企業股份有限公司 具有不同型態的按鍵的體積量測裝置
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
JP2022093128A (ja) * 2020-12-11 2022-06-23 富士フイルムビジネスイノベーション株式会社 撮影処理装置、撮影処理システム、及び撮影処理プログラム
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
CN118551785A (zh) * 2023-02-27 2024-08-27 荣耀终端有限公司 扫码方法、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032105A (ja) * 2002-06-21 2004-01-29 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
JP2005063142A (ja) * 2003-08-12 2005-03-10 Casio Comput Co Ltd コード読取装置
JP2011514232A (ja) * 2008-03-17 2011-05-06 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法
JP2015145797A (ja) * 2014-01-31 2015-08-13 株式会社キーエンス 画像検査装置、画像検査方法及び画像検査プログラム並びにコンピュータで読み取り可能な記録媒体
JP2015198260A (ja) * 2014-03-31 2015-11-09 アイホン株式会社 監視カメラシステム

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5408322A (en) 1993-04-26 1995-04-18 Materials Research Corporation Self aligning in-situ ellipsometer and method of using for process monitoring
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US5831719A (en) 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6332098B2 (en) 1998-08-07 2001-12-18 Fedex Corporation Methods for shipping freight
WO2003002935A1 (en) 2001-06-29 2003-01-09 Square D Company Overhead dimensioning system and method
US7248754B2 (en) 2003-05-05 2007-07-24 International Business Machines Corporation Apparatus and method for determining whether machine readable information on an item matches the item
US7137207B2 (en) 2003-06-23 2006-11-21 Armstrong Timothy D Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof
DE10336638A1 (de) 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
TWI266035B (en) 2003-11-11 2006-11-11 Hon Hai Prec Ind Co Ltd A system and method for measuring point-cloud
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US8157205B2 (en) 2006-03-04 2012-04-17 Mcwhirk Bruce Kimberly Multibody aircrane
CA2737169C (en) 2006-04-28 2014-04-01 Global Sensor Systems Inc. Device for measuring package size
US20070272732A1 (en) 2006-05-26 2007-11-29 Mettler-Toledo, Inc. Weighing and dimensioning system and method for weighing and dimensioning
US7647752B2 (en) 2006-07-12 2010-01-19 Greg Magnell System and method for making custom boxes for objects of random size or shape
US8531457B2 (en) 2006-11-29 2013-09-10 Technion Research And Development Foundation Ltd. Apparatus and method for finding visible points in a cloud point
US7940279B2 (en) 2007-03-27 2011-05-10 Utah State University System and method for rendering of texel imagery
US8132728B2 (en) 2007-04-04 2012-03-13 Sick, Inc. Parcel dimensioning measurement system and method
CN101681525A (zh) 2007-06-08 2010-03-24 电子地图有限公司 产生多视点全景图的方法及设备
WO2008154611A2 (en) 2007-06-11 2008-12-18 Honeywell International Inc. Optical reader system for extracting information in a digital image
US7726575B2 (en) 2007-08-10 2010-06-01 Hand Held Products, Inc. Indicia reading terminal having spatial measurement functionality
US8396284B2 (en) 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
EP2332094B1 (en) * 2008-09-14 2014-03-12 Eliezer Magal Automatic identification system for randomly oriented objects
US8479996B2 (en) 2008-11-07 2013-07-09 Symbol Technologies, Inc. Identification of non-barcoded products
US8463079B2 (en) 2008-12-16 2013-06-11 Intermec Ip Corp. Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner
US8265895B2 (en) 2009-03-27 2012-09-11 Symbol Technologies, Inc. Interactive sensor systems and methods for dimensioning
US8284988B2 (en) 2009-05-13 2012-10-09 Applied Vision Corporation System and method for dimensioning objects using stereoscopic imaging
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
KR101619076B1 (ko) 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US20110216063A1 (en) 2010-03-08 2011-09-08 Celartem, Inc. Lidar triangular network compression
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
US8134717B2 (en) 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
US20110310088A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Personalized navigation through virtual 3d environments
US8872851B2 (en) 2010-09-24 2014-10-28 Intel Corporation Augmenting image data based on related 3D point cloud data
EP2439487B1 (de) 2010-10-06 2012-08-22 Sick Ag Volumenmessvorrichtung für bewegte Objekte
US9449233B2 (en) 2010-12-01 2016-09-20 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
WO2012100593A1 (zh) 2011-01-30 2012-08-02 浙江省电力公司 智能电能表全自动化检定系统
US8447549B2 (en) 2011-02-11 2013-05-21 Quality Vision International, Inc. Tolerance evaluation with reduced measured points
US8660338B2 (en) 2011-03-22 2014-02-25 Honeywell International Inc. Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
WO2012155104A1 (en) 2011-05-11 2012-11-15 Proiam, Llc Enrollment apparatus, system, and method featuring three dimensional camera
US9070285B1 (en) 2011-07-25 2015-06-30 UtopiaCompression Corporation Passive camera based cloud detection and avoidance for aircraft systems
KR101907081B1 (ko) 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US8793107B2 (en) 2011-12-01 2014-07-29 Harris Corporation Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling
CN103164842A (zh) 2011-12-14 2013-06-19 鸿富锦精密工业(深圳)有限公司 点云提取系统及方法
US20130162806A1 (en) 2011-12-23 2013-06-27 Mitutoyo Corporation Enhanced edge focus tool
EP2615580B1 (en) 2012-01-13 2016-08-17 Softkinetic Software Automatic scene calibration
US8668136B2 (en) 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
WO2013170260A1 (en) 2012-05-11 2013-11-14 Proiam, Llc Hand held dimension capture apparatus, system, and method
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
EP2877959B1 (en) 2012-07-24 2018-04-18 Datalogic USA, Inc. Systems and methods of object measurement in an automated data reader
US8757479B2 (en) 2012-07-31 2014-06-24 Xerox Corporation Method and system for creating personalized packaging
ES2545374T3 (es) 2012-07-31 2015-09-10 Sick Ag Sistema de detección para el montaje en una cinta transportadora
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9472022B2 (en) 2012-10-05 2016-10-18 University Of Southern California Three-dimensional point processing and model generation
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US8761448B1 (en) * 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
US9154773B2 (en) 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US9443297B2 (en) 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
MY177646A (en) 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
WO2015199554A2 (en) 2014-06-27 2015-12-30 Crown Equipment Limited Vehicle positioning or navigation utilizing associated feature pairs
US11051000B2 (en) 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
CN104200086B (zh) 2014-08-25 2017-02-22 西北工业大学 宽基线可见光相机位姿估计方法
US9600892B2 (en) 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032105A (ja) * 2002-06-21 2004-01-29 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
JP2005063142A (ja) * 2003-08-12 2005-03-10 Casio Comput Co Ltd コード読取装置
JP2011514232A (ja) * 2008-03-17 2011-05-06 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法
JP2015145797A (ja) * 2014-01-31 2015-08-13 株式会社キーエンス 画像検査装置、画像検査方法及び画像検査プログラム並びにコンピュータで読み取り可能な記録媒体
JP2015198260A (ja) * 2014-03-31 2015-11-09 アイホン株式会社 監視カメラシステム

Also Published As

Publication number Publication date
US9805240B1 (en) 2017-10-31
MX2018012667A (es) 2019-07-18
US20170300734A1 (en) 2017-10-19
DE112017002060T5 (de) 2018-12-27
GB2564360B (en) 2021-09-29
CN109074469B (zh) 2021-08-24
CA3021484C (en) 2022-09-27
GB201816862D0 (en) 2018-11-28
CA3021484A1 (en) 2017-10-26
CN109074469A (zh) 2018-12-21
JP6992000B2 (ja) 2022-01-13
GB2564360A (en) 2019-01-09
WO2017184310A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
JP6992000B2 (ja) バーコードを走査し寸法決定する方法及び装置
US10393508B2 (en) Handheld dimensioning system with measurement-conformance feedback
AU2016398052B2 (en) Device and method of dimensioning using digital images and depth data
CN106096474B (zh) 用于成像的系统和方法
JP6462183B2 (ja) 撮像装置及びフォーカス制御方法
JP5657182B2 (ja) 撮像装置及び信号補正方法
US8602308B2 (en) Imaging device having light field sensor
KR102028297B1 (ko) 파노라마 영상을 발생하기 위한 디바이스 및 방법
JP6031587B2 (ja) 撮像装置、信号処理方法、信号処理プログラム
JP6251851B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
US10742878B2 (en) Stereo camera device with improved depth resolution
JP5677625B2 (ja) 信号処理装置、撮像装置、信号補正方法
KR102366643B1 (ko) 심볼들을 디코드하기 위해 클라이언트 컴퓨팅 디바이스를 캘리브레이트하는 방법 및 장치
US20170187951A1 (en) Imaging device and focus control method
JP6186498B2 (ja) 撮像装置及び合焦制御方法
KR20130084415A (ko) 카메라 모듈, 그의 오토 포커스 방법 및 오토 포커스 캘리브레이션하는 방법
CN113012211A (zh) 图像采集方法、装置、系统、计算机设备及存储介质
JP6236580B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
US11880738B1 (en) Visual odometry for optical pattern scanning in a real scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201203

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210402

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210719

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211108

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211206

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R150 Certificate of patent or registration of utility model

Ref document number: 6992000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150