JP2022025843A - 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル - Google Patents
画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル Download PDFInfo
- Publication number
- JP2022025843A JP2022025843A JP2020128966A JP2020128966A JP2022025843A JP 2022025843 A JP2022025843 A JP 2022025843A JP 2020128966 A JP2020128966 A JP 2020128966A JP 2020128966 A JP2020128966 A JP 2020128966A JP 2022025843 A JP2022025843 A JP 2022025843A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinates
- predetermined
- image processing
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 207
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000000605 extraction Methods 0.000 claims abstract description 77
- 239000000284 extract Substances 0.000 claims abstract description 43
- 239000000470 constituent Substances 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 abstract description 24
- 239000000203 mixture Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 230000006854 communication Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000012015 optical character recognition Methods 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
Abstract
【解決手段】画像処理システム1は、オブジェクトを撮像した動画の動画構成画像に基づいてオブジェクトの所定箇所の座標を取得する座標取得部16と、座標に基づいて、オブジェクトが含まれる画像領域を動画構成画像から抽出する画像領域抽出部18とを備え、座標取得部16が、画像領域に基づいてオブジェクトの所定箇所の座標を取得し、画像領域抽出部18が、取得された座標を動画構成画像に射影して、オブジェクトのオブジェクト画像領域を抽出する。
【選択図】図1
Description
図1は、本発明の実施の形態に係る画像処理システムの概要を示す。
図2は、本発明の実施の形態に係る画像処理システムの機能構成の一例を示す。なお、以下の説明においては主として、抽出対象のオブジェクトが領収書である例を挙げて説明する。
画像処理システム1は、動画を撮像する動画撮像部10と、動画から動画構成画像を抽出する構成画像抽出部12と、画像をリサイズするリサイズ処理部14と、画像から所定のオブジェクトの所定箇所の座標を取得する座標取得部16と、画像領域を抽出する画像領域抽出部18と、画像に所定の処理を施す画像処理部20と、画像のオブジェクトの方向を調整する方向調整部22と、所定の情報を格納する情報格納部24と、学習モデルを生成する学習モデル生成部26と、所定の情報の入力を受け付ける入力部28と、所定の情報を出力する出力部30と、オブジェクト表面のテキストデータ等を読み取る読取部32とを備える。
(動画撮像部10、構成画像抽出部12)
動画撮像部10は、撮像領域の動画を撮像する。動画撮像部10は、撮像領域に含まれる1以上のオブジェクトを動画で撮像する。動画撮像部10は、撮像対象を直上(つまり、俯角90度)から撮像することも、俯角90度未満から撮像することもできる。なお、動画撮像部10は、フレームレートを適宜調整して動画を撮像してもよい。動画撮像部10は、撮像した動画を構成画像抽出部12に供給する。構成画像抽出部12は、動画撮像部10から受け取った動画から動画構成画像を抽出する。構成画像抽出部12は、動画から複数の動画構成画像を抽出する。ここで、動画構成画像とは、フレーム画像、フィールド画像、及びその他の動画を構成する様々な形式の画像である。構成画像抽出部12は、抽出した動画構成画像をリサイズ処理部14、画像領域抽出部18に供給する。
リサイズ処理部14は、画像にリサイズ処理を施してリサイズされた画像を生成する。具体的に、リサイズ処理部14は、構成画像抽出部12が抽出した動画構成画像をリサイズしてリサイズ画像を生成する。例えば、リサイズ処理部14は、動画構成画像のサイズを縮小したリサイズ画像を生成する。この場合にリサイズ処理部14は、矩形状の動画構成画像を正方形のリサイズ画像に変形してよい。リサイズ処理部14は、例えば、縦横画素数が3000px×2000pxのサイズを有する動画構成画像を、縦横画素数が300px×300pxのサイズにリサイズしたリサイズ画像を生成する。リサイズ処理部14がリサイズ処理をすることで、処理速度を向上させることができる。リサイズ処理部14は、リサイズ画像を座標取得部16に供給する。
座標取得部16は、オブジェクトを撮像した動画の動画構成画像に基づいてオブジェクトの所定箇所の座標を取得する。座標取得部16は、後述する予め準備した学習モデルを用い、抽出対象のオブジェクトの所定箇所の座標を画像から取得する。所定箇所の座標は、オブジェクトの隅を中心とする1以上の矩形領域であって、当該中心から動画構成画像の外縁若しくは動画構成画像に基づいて生成される生成画像の外縁までの長さが最短距離になる直線を垂線とする辺が、動画構成画像の外縁若しくは生成画像の外縁に接するサイズの矩形領域を形成した場合における中心の座標である。具体的に、座標取得部16は、リサイズ処理部14から受け取った生成画像としてのリサイズ画像からオブジェクトの所定箇所の座標を取得する。所定箇所の座標は、オブジェクトの特徴的な部分の座標であり、例えば、オブジェクトが矩形状の場合は4隅の座標若しくは少なくとも一部の隅の座標である。つまり、所定箇所の座標は、オブジェクトの隅を中心とする1以上の矩形領域(例えば、正方形)であって、当該中心からリサイズ画像の外縁までの長さが最短距離になる直線を垂線とする辺がリサイズ画像の外縁に接するサイズの矩形領域を形成した場合における中心の座標である。座標取得部16は、リサイズ画像からオブジェクトの所定箇所の一部の座標を取得した場合、残りの所定箇所の座標を学習モデルに基づいて推定する。一例として、座標取得部16は、オブジェクトが矩形である場合、当該オブジェクトの3つの隅の座標を取得し、残り1つの隅の座標を当該3つの隅の座標を用いて推定する。ここで、動画は複数の動画構成画像から構成されるので、リサイズ処理部14が生成するリサイズ画像も複数、存在する。座標取得部16は、リサイズ処理部14から複数のリサイズ画像を取得した場合、抽出対象であるオブジェクトの所定箇所の座標の全てを取得できるリサイズ画像を選択し、選択したリサイズ画像から座標を取得してもよい。座標取得部16は、取得した座標に関する情報を画像領域抽出部18に供給する。
画像領域抽出部18は、座標取得部16が取得した座標に基づいて、抽出対象であるオブジェクトが含まれる画像領域を動画構成画像から抽出する。具体的に、画像領域抽出部18は、リサイズ画像から取得された所定箇所の座標を動画構成画像に射影して画像領域を抽出する。すなわち、画像領域抽出部18は、動画構成画像から生成されたリサイズ画像から取得されたオブジェクトの所定箇所の座標をリサイズされる前の動画構成画像に射影し、当該動画構成画像に含まれる抽出対象であるオブジェクトが含まれる画像領域を抽出する。この場合において画像領域抽出部18は、所定のマージン領域を付加して画像領域を動画構成画像から抽出することができる。つまり、画像領域抽出部18は、座標の射影により特定される領域の外側に所定のマージン領域を含めた領域を画像領域として抽出できる。画像領域抽出部18は、抽出した画像領域をリサイズ処理部14に供給する。
画像処理部20は、画像領域抽出部18が抽出した画像領域に所定の画像処理(例えば、ブレ、歪み、回転等の補正処理)を施して、オブジェクト画像領域を生成する。なお、画像領域抽出部18は、抽出した画像領域に画像処理部20による画像処理を施さずにオブジェクト画像領域としてもよい。画像処理部20は、後述する読取部32における情報の読み取りや入力を適切に実行可能にすることを目的として、オブジェクト画像領域に画像処理を施す。例えば、画像処理部20は、オブジェクト画像領域が所定のオブジェクトの本来の形状から変形した形状の当該オブジェクトを含む画像である場合(例えば、オブジェクトが領収書である場合において、領収書を斜めの角度から撮像した場合、動画には四辺形ではあるが長方形ではない領収書の画像が含まれる。)、アフィン変換等の処理により長方形のオブジェクトに変形する処理を実行する。これにより、画像処理部20は、斜めの角度から撮像したオブジェクトが台形状のオブジェクトとしてオブジェクト画像領域に含まれる現象であるキーストーニングの除去を実行する。また、画像処理部20は、より明確な画像を読取部32に読み取らせることを目的として、オブジェクト画像領域に二値化処理やシャープネス処理等の画像処理を施すこともできる。画像処理部20は、画像処理後の画像を方向調整部22に供給する。
方向調整部22は、オブジェクト画像領域に含まれる所定のオブジェクトの方向を調整する。すなわち、画像処理部20において画像処理が施された画像に含まれる所定のオブジェクトの向きは、所定の方向に揃っているとは限らない。したがって、方向調整部22は、後述する読取部32における情報の取り込み/入力を適切に実行することを目的として、画像に含まれる所定のオブジェクトの向きを所定の方向に揃える処理を実行する。例えば、画像処理部20におけるアフィン変換を経て長方形に変更された画像の向きは、当該長方形の長辺を規準にした場合、一例として、当該基準に対して長辺が、0°、90°、180°、270°等の4つの状況をとることが考えられる。方向調整部22は、画像処理部20におけるアフィン変換等の画像処理後に得られる画像に含まれる所定のオブジェクト(例えば、領収書等の長方形状を有するオブジェクト)の向きを、一例として、正面視にて縦長の方向(つまり、情報端末2等の表示部を正面から観察した場合に、水平方向に短辺が位置し、垂直方向に長辺が位置する方向)になるように画像を回転する処理を実行する。これにより、方向調整部22は、オブジェクト画像領域に含まれる所定のオブジェクトの方向を所定の方向に揃えることができる。方向調整部22は、方向を調整した後のオブジェクト画像領域を情報格納部24、読取部32に供給する。
情報格納部24は、方向が調整されたオブジェクト画像領域、すなわち、読取部32における読取処理に適したオブジェクト画像領域を格納する。情報格納部24は、例えば、ユーザを識別するユーザIDに対応付けて、当該オブジェクト画像領域、当該オブジェクト画像領域を含む動画の撮像年月日、撮像時刻等の情報を格納することができる。なお、情報格納部24に格納される各種の情報は、情報端末2や、外部のサーバ(例えば、画像処理システム1の外部のサーバであって、会計処理や経理処理等に用いるサーバ等)に供給することができる。また、情報端末2は情報格納部24を有していなくてもよく、この場合、情報格納部24は、通信網4を介して双方向通信可能に情報端末2に接続される外部サーバが有していてよい。
座標取得部16は、学習モデルに基づいて、リサイズ処理部14から受け取ったリサイズ画像に所定のオブジェクトが含まれているか否かを判断し、当該所定のオブジェクトの少なくとも一部の所定箇所の座標を取得する。また、座標取得部16は、リサイズ処理部14から受け取ったリサイズ画像領域に含まれる所定のオブジェクトの少なくとも一部の所定箇所の座標を学習モデルに基づいて取得する。座標取得部16は、既知の画像認識技術や機械学習を用いて当該判断を実行できる。
読取部32は、方向調整部22から受け取った方向が調整されたオブジェクト画像領域に含まれるオブジェクト表面に記載された各種の情報を読み取る。読取部32は、例えば、Optical Character Recognition/Reader(OCR)等を利用し、オブジェクト表面に記載された各種の情報を読み取る。一例として、オブジェクトが領収書である場合、読取部32が読み取る情報は、日付、金額、電話番号等の情報である。読取部32は、読み取った情報を情報格納部24に格納させることができる。情報格納部24は、例えば、ユーザIDに対応付けて、情報の読み取りに用いたオブジェクト画像領域の撮像年月日、撮像時刻に関する情報と共に、読み取った情報を格納する。
入力部28は、ユーザからの各種情報や所定の指示の入力を受け付ける。入力部28は、例えば、情報端末2のタッチパネル、キーボード、マウス、マイク、ジェスチャーセンサ等である。入力部28は、画像処理システム1の所定の構成要素に当該所定の指示を供給する。当該所定の指示を受け付けた各構成要素はそれぞれ所定の機能を発揮する。
出力部30は、画像処理システム1において実行された各種の処理結果を出力する。出力部30は、各種の処理結果や格納している情報をユーザが知覚可能に出力する。具体的に出力部30は、各種処理結果や格納している情報を、静止画像、動画像、音声、テキスト、及び/又は振動や光等の物理現象等として出力する。例えば、出力部30は、情報端末2の表示部、スピーカー等である。
図4は本実施形態に係る画像処理システムの処理の第1の工程の概要を示し、図5はマージン領域を設ける理由の概要を示し、図6は本実施形態に係る画像処理システムの処理の第2の工程の概要を示す。また、図7は、本実施形態に係る画像処理システムの処理全体の流れの概要を示す。
図1~図7に示した本実施形態に係る画像処理システム1が備える各構成要素は、中央演算処理装置(Central Processing Unit:CPU)等の演算処理装置にプログラム(すなわち、画像処理プログラム)を実行させること、つまり、ソフトウェアによる処理により実現できる。また、集積回路(Integrated Circuit:IC)等の電子部品としてのハードウェアにプログラムを予め書き込むことで実現することもできる。なお、ソフトウェアとハードウェアとを併用することもできる。
本実施の形態に係る画像処理システム1は、抽出対象である所定のオブジェクトの所定箇所の座標を中心とする1以上の矩形領域を当該所定のオブジェクトにラベル付けしたデータセットを用いて学習して構築された学習モデルを用いる。そして、画像処理システム1は、動画から動画構成画像を抽出し、抽出した動画構成画像からリサイズ画像を生成し、学習モデルを用いてリサイズ画像から抽出対象の所定のオブジェクトの所定箇所の座標を取得し、取得した座標を当該動画構成画像に射影して抽出対象のオブジェクトが含まれる画像領域を抽出する第1の工程と、この画像領域をリサイズしてリサイズ画像領域を生成し、学習モデルを用いてリサイズ画像領域から抽出対象の所定のオブジェクトの所定箇所の座標を取得し、取得した座標を当該動画構成画像に射影して抽出対象のオブジェクトのオブジェクト画像領域を抽出する第2の工程とにより抽出対象であるオブジェクト画像領域を抽出する。これにより、画像処理システム1によれば、例えば、机の上等に整頓されずに配置された複数のオブジェクトの動画を撮像するだけで、高精度、高速、かつ、適切に抽出対象であるオブジェクト(例えば、領収書)の画像を抽出し、オブジェクトに記載されている各種の情報の取得用データや画像処理用のデータとして情報格納部24に格納することができる。
(付記項1)
オブジェクトを動画で撮像する動画撮像部と、
前記動画の動画構成画像を抽出する構成画像抽出部と、
前記動画構成画像をリサイズしてリサイズ画像を生成するリサイズ処理部と、
前記リサイズ画像から、前記オブジェクトの所定箇所の座標を取得する座標取得部と、
前記座標を前記動画構成画像に射影して、前記動画構成画像から前記オブジェクトが含まれる画像領域を抽出する画像領域抽出部と
を備え、
前記リサイズ処理部が、前記画像領域をリサイズしてリサイズ画像領域を生成し、
前記座標取得部が、前記リサイズ画像領域から、前記オブジェクトの前記所定箇所の座標を再取得し、
前記画像領域抽出部が、前記再取得された前記座標を前記動画構成画像に射影して、前記オブジェクトのオブジェクト画像領域を抽出する画像処理システム。
2 情報端末
3 サーバ
4 通信網
10 動画撮像部
12 構成画像抽出部
14 リサイズ処理部
16 座標取得部
18 画像領域抽出部
20 画像処理部
22 方向調整部
24 情報格納部
26 学習モデル生成部
28 入力部
30 出力部
32 読取部
80、82、84、86、88 オブジェクト
90 机
100 リサイズ画像
110 動画
120、120a、120b、120c 動画構成画像
130 画像
140a、140b、140c リサイズ画像
142 リサイズ画像
144、144a、144b 画像領域
146 リサイズ画像領域
148 オブジェクト画像領域
150、152、154、156 隅
150a、152a、154a、156a 座標
160、162、164、166 座標
160a、162a、164a、166a 座標
160b、162b、164b、166b 座標
160c、162c、164c、166c 座標
160d、162d、164d、166d 座標
170、172、174、176 矩形領域
170a 辺
180 マージン領域
260 学習モデル
Claims (11)
- オブジェクトを撮像した動画の動画構成画像に基づいて前記オブジェクトの所定箇所の座標を取得する座標取得部と、
前記座標に基づいて、前記オブジェクトが含まれる画像領域を前記動画構成画像から抽出する画像領域抽出部と
を備え、
前記座標取得部が、前記画像領域に基づいて前記オブジェクトの前記所定箇所の座標を取得し、
前記画像領域抽出部が、前記取得された前記座標を前記動画構成画像に射影して、前記オブジェクトのオブジェクト画像領域を抽出する画像処理システム。 - 前記動画構成画像をリサイズしてリサイズ画像を生成するリサイズ処理部
を更に備え、
前記座標取得部が、前記リサイズ画像から前記オブジェクトの所定箇所の座標を取得し、
前記画像領域抽出部が、前記リサイズ画像から取得された前記所定箇所の座標を前記動画構成画像に射影して、前記画像領域を抽出し、
前記リサイズ処理部が、前記画像領域をリサイズしてリサイズ画像領域を生成し、
前記座標取得部が、前記リサイズ画像領域から、前記オブジェクトの前記所定箇所の座標を取得し、
前記画像領域抽出部が、前記リサイズ画像領域から取得された前記所定箇所の座標を前記動画構成画像に射影して、前記オブジェクト画像領域を抽出する請求項1に記載の画像処理システム。 - 前記所定箇所の座標が、前記オブジェクトの隅を中心とする1以上の矩形領域であって、前記中心から前記リサイズ画像の外縁までの長さが最短距離になる直線を垂線とする辺が前記リサイズ画像の外縁に接するサイズの前記矩形領域を形成した場合における前記中心の座標である請求項2に記載の画像処理システム。
- 前記画像領域抽出部が、所定のマージン領域を付加した前記画像領域を前記動画構成画像から抽出する請求項1~3のいずれか1項の記載の画像処理システム。
- 前記座標取得部が、前記所定のオブジェクトの前記所定箇所の座標を、予め準備した学習モデルを用いて取得する請求項1~4のいずれか1項に記載の画像処理システム。
- 前記オブジェクト画像領域に所定の画像処理を施す画像処理部
を更に備える請求項1~5のいずれか1項に記載の画像処理システム。 - 前記所定箇所の座標が、前記オブジェクトの隅を中心とする1以上の矩形領域であって、前記中心から前記動画構成画像の外縁若しくは前記動画構成画像に基づいて生成される生成画像の外縁までの長さが最短距離になる直線を垂線とする辺が、前記動画構成画像の外縁若しくは前記生成画像の外縁に接するサイズの前記矩形領域を形成した場合における前記中心の座標である請求項1に記載の画像処理システム。
- 画像処理システム用の画像処理方法であって、
オブジェクトを撮像した動画の動画構成画像に基づいて前記オブジェクトの所定箇所の座標を取得する座標取得工程と、
前記座標に基づいて、前記オブジェクトが含まれる画像領域を前記動画構成画像から抽出する画像領域抽出工程と、
前記画像領域に基づいて前記オブジェクトの前記所定箇所の座標を取得する工程と、
前記取得された前記座標を前記動画構成画像に射影して、前記オブジェクトのオブジェクト画像領域を抽出する工程と
を備える画像処理方法。 - 画像処理システム用の画像処理プログラムであって、
コンピュータに、
オブジェクトを撮像した動画の動画構成画像に基づいて前記オブジェクトの所定箇所の座標を取得する座標取得機能と、
前記座標に基づいて、前記オブジェクトが含まれる画像領域を前記動画構成画像から抽出する画像領域抽出機能と、
前記画像領域に基づいて前記オブジェクトの前記所定箇所の座標を取得する機能と、
前記取得された前記座標を前記動画構成画像に射影して、前記オブジェクトのオブジェクト画像領域を抽出する機能と
を実現させる画像処理プログラム。 - オブジェクトを撮像した動画の動画構成画像に基づいて前記オブジェクトの所定箇所の座標を取得する座標取得部と、
前記座標に基づいて、前記オブジェクトが含まれる画像領域を前記動画構成画像から抽出する画像領域抽出部と
を備え、
前記座標取得部が、前記画像領域に基づいて前記オブジェクトの前記所定箇所の座標を取得し、
前記画像領域抽出部が、前記取得された前記座標を前記動画構成画像に射影して、前記オブジェクトのオブジェクト画像領域を抽出する画像処理サーバ。 - 撮像画像が入力されると、前記撮像画像に含まれるオブジェクトが所定のオブジェクトであるか否か識別するために、前記所定のオブジェクトの1以上の隅を中心とする1以上の矩形領域を出力するよう、プロセッサを機能させる学習モデルであって、
前記学習モデルは、前記所定のオブジェクトが含まれる画像、前記所定のオブジェクトが配され得る背景画像、及び前記所定のオブジェクトが含まれる画像と前記背景画像との組み合わせを教師データとして学習され、
前記学習では、前記所定のオブジェクトの隅を中心とする1以上の矩形領域であって、前記中心から前記所定のオブジェクトが含まれる画像の外縁までの長さが最短距離になる直線を垂線とする辺が前記画像の外縁に接するサイズの前記矩形領域を形成し、形成された前記矩形領域及び当該矩形領域の前記中心の座標を用いて前記画像中の前記所定のオブジェクトを識別するための学習モデル。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020128966A JP6815712B1 (ja) | 2020-07-30 | 2020-07-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
JP2020197889A JP2022027394A (ja) | 2020-07-30 | 2020-11-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
PCT/JP2021/026945 WO2022024835A1 (ja) | 2020-07-30 | 2021-07-19 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020128966A JP6815712B1 (ja) | 2020-07-30 | 2020-07-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020197889A Division JP2022027394A (ja) | 2020-07-30 | 2020-11-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6815712B1 JP6815712B1 (ja) | 2021-01-20 |
JP2022025843A true JP2022025843A (ja) | 2022-02-10 |
Family
ID=74164545
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020128966A Active JP6815712B1 (ja) | 2020-07-30 | 2020-07-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
JP2020197889A Pending JP2022027394A (ja) | 2020-07-30 | 2020-11-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020197889A Pending JP2022027394A (ja) | 2020-07-30 | 2020-11-30 | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6815712B1 (ja) |
WO (1) | WO2022024835A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744714A (ja) * | 1993-08-04 | 1995-02-14 | Mitsubishi Electric Corp | 直方体の認識方法 |
JP2001014427A (ja) * | 1999-04-26 | 2001-01-19 | Oki Electric Ind Co Ltd | 基準マーク検出方法、基準マーク検出装置及び光学式文字読取装置 |
JP2007040968A (ja) * | 2005-07-05 | 2007-02-15 | Juki Corp | 部品位置検出方法及び装置 |
WO2016199605A1 (ja) * | 2015-06-12 | 2016-12-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
-
2020
- 2020-07-30 JP JP2020128966A patent/JP6815712B1/ja active Active
- 2020-11-30 JP JP2020197889A patent/JP2022027394A/ja active Pending
-
2021
- 2021-07-19 WO PCT/JP2021/026945 patent/WO2022024835A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744714A (ja) * | 1993-08-04 | 1995-02-14 | Mitsubishi Electric Corp | 直方体の認識方法 |
JP2001014427A (ja) * | 1999-04-26 | 2001-01-19 | Oki Electric Ind Co Ltd | 基準マーク検出方法、基準マーク検出装置及び光学式文字読取装置 |
JP2007040968A (ja) * | 2005-07-05 | 2007-02-15 | Juki Corp | 部品位置検出方法及び装置 |
WO2016199605A1 (ja) * | 2015-06-12 | 2016-12-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022027394A (ja) | 2022-02-10 |
JP6815712B1 (ja) | 2021-01-20 |
WO2022024835A1 (ja) | 2022-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101292925B1 (ko) | 촬상 대상물, 화상 처리 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록 매체 및 화상 처리 방법 | |
JP4904426B1 (ja) | 画像処理システムとそれに用いる撮像対象物 | |
RU2631765C1 (ru) | Способ и система исправления перспективных искажений в изображениях, занимающих двухстраничный разворот | |
JP6778314B1 (ja) | 画像処理システム、画像処理方法、及び画像処理プログラム | |
US8767099B2 (en) | Image processing system and imaging object used for same | |
WO2022024835A1 (ja) | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル | |
JP5651221B2 (ja) | シンボル片、画像処理プログラム、及び画像処理方法 | |
JP5602925B2 (ja) | 画像処理プログラム、及び画像処理方法 | |
JP2003058877A (ja) | 歪み補正方法、歪み補正装置および歪み補正プログラム | |
JP2014219822A (ja) | コンテンツ表示装置、コンテンツ表示方法、プログラム、及び、コンテンツ表示システム | |
JP2006319820A (ja) | 画像歪み補正装置 | |
JP5140773B2 (ja) | 画像処理プログラム、携帯端末、及び画像処理方法 | |
JP5101740B2 (ja) | 撮像対象物 | |
JP5140777B2 (ja) | 撮像対象物、画像処理プログラム、及び画像処理方法 | |
JP5602927B2 (ja) | 撮像対象物、画像処理プログラム、及び画像処理方法 | |
JP5140772B2 (ja) | 画像処理プログラム、携帯端末、及び画像処理方法 | |
JP5140767B2 (ja) | 撮像対象物 | |
JP5140774B2 (ja) | 透明シート | |
JP5602926B2 (ja) | 撮像対象物、画像処理プログラム、及び画像処理方法 | |
JP2011028611A (ja) | 文字情報読取装置および文字情報読取方法 | |
JP2012130080A (ja) | 画像処理プログラム、携帯端末、及び画像処理方法 | |
JP2012170145A (ja) | 画像処理システム、画像処理プログラム、携帯端末、画像処理方法、および透明シート | |
JP2012069082A (ja) | 画像処理システムとそれに用いる撮像対象物 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200730 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200908 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
C876 | Explanation why request for accelerated appeal examination is justified |
Free format text: JAPANESE INTERMEDIATE CODE: C876 Effective date: 20201130 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201209 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201210 |
|
C272 | Notice of ex officio correction |
Free format text: JAPANESE INTERMEDIATE CODE: C272 Effective date: 20201210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201222 |
|
C092 | Termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C092 Effective date: 20201222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6815712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |