JP2021131617A - 情報処理方法、プログラム、及び情報処理装置 - Google Patents
情報処理方法、プログラム、及び情報処理装置 Download PDFInfo
- Publication number
- JP2021131617A JP2021131617A JP2020025389A JP2020025389A JP2021131617A JP 2021131617 A JP2021131617 A JP 2021131617A JP 2020025389 A JP2020025389 A JP 2020025389A JP 2020025389 A JP2020025389 A JP 2020025389A JP 2021131617 A JP2021131617 A JP 2021131617A
- Authority
- JP
- Japan
- Prior art keywords
- information
- character
- image
- information processing
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 68
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 abstract description 4
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 29
- 238000004891 communication Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000004048 modification Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 7
- 239000004984 smart glass Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
実施形態では、情報処理装置の撮影装置により撮影中の画像を表示し、他の情報処理装置の表示部に表示された所定画面を特定し、所定画面に含まれる各項目に対してユーザが設定する場合に、各項目の入力方法をガイドするためのガイド情報を重畳表示する方法、プログラム、装置、システム等について説明する。
図1は、実施形態における情報処理システム1の各構成例を示す図である。図1に示す例では、ユーザが利用する各情報処理装置10A、10B・・・と、物体認識処理を実行したり、文字認識処理を実行したり、ガイド情報を記憶したりするサーバ20とが、ネットワークNを介して接続される。なお、サーバ20は、複数のサーバやデータベースで構成されてもよく、機能ごとに1つのサーバで処理されたり、各データを1つのデータベースで保存したりしてもよい。
図2は、実施形態に係るユーザ端末10Aの一例を示すブロック図である。ユーザ端末10Aは典型的には、1つ又は複数の処理装置(CPU)110、1つ又は複数のネットワーク又は他の通信インタフェース120、メモリ130、ユーザインタフェース150、撮影装置160、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス170を含む。
特定モジュール135は、撮影中の画像内に表示される他の情報処理装置(例えばユーザ端末10B)の画面を特定する。例えば、特定モジュール135は、撮影中の画像から一の画像を取得し、サーバ20に物体認識をリクエストする。特定モジュール135は、サーバ20から、認識された物体の画面情報(例えば画像内における画面の位置情報)を取得する。具体例として、特定モジュール135は、サーバ20側が公開する物体認識APIを用いて、認識された物体の物体IDや位置情報を取得してもよい。
ユーザのハンドの位置に対応する文字情報を特定すること、
特定された文字情報に対応するガイド情報を特定すること、
特定されたガイド情報を、特定された文字情報に関連付けて撮影中の画像に重畳して表示制御すること、
を含んでもよい。
<登録処理>
図4は、実施形態に係る物体データ233の一例を示す図である。図4に示す例では、物体データ233は、物体IDに関連付けて、物体名、物体の画像データなどを含む。これらのデータは、機械学習の学習データとして用いられてもよい。物体データ233の一例として、画像ID「T−000100」には、物体名「スマートフォン」、物体の画像データ「画像A」などのデータが関連付けられる。なお、他にも、物体の画面の位置を示す位置情報などが関連付けられてもよい。
次に、実施形態に係る情報処理システム1の動作について図7及び図8を用いて説明する。図7及び図8に示す例では、サーバ20が機能ごとに分かれている。例えば、サーバ20Aが物体認識モジュール236を有するサーバであり、サーバ20Bが文字認識モジュール237を有するサーバであり、DB1が物体の画像データ等の学習データの格納先やガイド情報の格納先であり、DB2は、物体データ235、文字認識データ236、ガイド格納先データ236等を保存し、ガイド制御モジュール238の機能を有する。図7は、実施形態に係る情報処理システム1の登録処理の一例を示すシーケンス図である。
ユーザは、ユーザ端末10Aを用いて、所定のアプリケーション(以下、「Aアプリ」とも称する。)の登録起動ボタンを押下する。また、ユーザは、ユーザ端末10Aに向かって、「Hey ○○、Aアプリを起動して」等と発話し、Aアプリを起動する。このとき、ユーザは、「Aアプリの登録機能を起動して」等と発話し、Aアプリの登録機能を起動するようにしてもよい。
ユーザ端末10Aは、Aアプリの起動に伴い、撮影装置160を起動し、撮影中のカメラ画像をディスプレイ151に表示する。
ユーザは、ディスプレイ151越しに見えるユーザ端末10B(物体)をタップする。ユーザ端末10Aの検知モジュール139は、タップのジェスチャを検知する。また、ユーザは、音声等でユーザ端末10Bの存在をユーザ端末10Aに知らせてもよい。
ユーザ端末10Aの特定モジュール135は、撮影装置160からのカメラ画像内における、タップした位置情報と、カメラ画像に基づき、物体認識用の学習データを生成する。
ユーザ端末10Aの特定モジュール135は、学習データをDB1にアップロードする。DB1は、学習データにIDを付与し、格納先のURLを取得する。
ユーザ端末10Aの特定モジュール135は、DB1からアップロードした学習データのIDと、学習データの格納先を示すURLを取得する。
ユーザ端末10Aの特定モジュール135は、学習データのIDとURLとをDB2にアップロードする。
ユーザ端末10Aの特定モジュール135は、DB2から学習データのIDとURLとの格納が完了した旨の通知を取得する。
ユーザ端末10Aの特定モジュール135は、カメラ画像を基に、物体の物体認識を行うリクエストをサーバ20Aに送信する。
サーバ20Aの物体認識モジュール236は、取得されたカメラ画像の画像データに基づき、画像データ内の物体に最も類似する物体の情報を取得するようDB2にリクエストする。なお、DB2は、カメラ画像の画像データと、画像内の物体IDとを含む学習データを用いて学習された学習済みモデルを保持しており、サーバ20Aからカメラ画像の画像データが入力されると、この画像データに対応する物体IDを出力してもよい。
サーバ20Aは、DB2から、物体IDと、物体の画面内の位置を含む位置情報とを取得する。
サーバ20Aの物体認識モジュール236は、物体IDと位置情報とをユーザ端末10Aに送信する。
ユーザ端末10Aの特定モジュール135は、物体の位置情報に基づき、カメラ画像の所定領域をクロップする(切り出す)。
ユーザ端末10Aの特定モジュール135は、クロップ済み画像内の文字列を認識するようリクエストをサーバ20Bに送信する。
サーバ20Bの文字認識モジュール237は、クロップ済み画像内から文字列を認識し、画像内における文字列の位置情報を取得する。サーバ20Bの文字認識モジュール237は、認識された文字列の文字情報と位置情報とを含む認識結果をユーザ端末10Aに送信する。
ユーザ端末10Aの取得モジュール136は、認識結果に含まれる文字列の一番上の行(文字情報)を、画面の名称(画面名)とし、以下の行(文字情報)を画面の内容(項目名)として保存する。
ユーザ端末10Aの表示制御モジュール137は、録画中であることをディスプレイ151に表示制御し、ユーザ(例えば熟練者)に録画中であることを報知する。
ユーザは、ユーザ端末10Bの画面上に対して手を用いて設定、入力等の作業を行うことで、撮影装置160は、作業中の手と、認識対象の物体(ユーザ端末10B)を撮影する。
ユーザ端末10Aは、例えば、手の動きに基づいてアニメーションを作成する作成モジュール(不図示)を有してもよい。手のアニメーションは、ガイド情報に含まれる。
ユーザは、作業終了ボタンを押下する。作業終了ボタンは、物理的なボタンでもよいし、ディスプレイ151上に表示されたボタンでもよい。表示されたボタンの場合、ユーザの手のタップがボタン上で検知されれば、ユーザ端末10Aの作成モジュールは、作業終了を検知してもよい。
ユーザ端末10Aは、ガイド情報をDB1にアップロードする。DB1は、ガイド情報の格納先を示すURLを取得する。
ユーザ端末10Aの取得モジュール136は、ガイド情報の格納先を示すURLと、画面の内容(項目名又は文字情報)とをDB1から取得する。
ユーザ端末10Aの取得モジュール136は、ガイド情報の格納先を示すURLと、画面の内容(項目名又は文字情報)とを関連付けて、DB2に送信する。DB2は、ガイド格納先データとして、ガイド情報のURLと、格納先データとを保存する。
ユーザ端末10Aの取得モジュール136は、DB2から保存が完了した旨の通知を取得する。
(ステップS202)
ユーザは、ユーザ端末10Aを用いて、Aアプリの表示起動ボタンを押下する。また、ユーザは、ユーザ端末10Aに向かって、「Hey ○○、Aアプリを起動して」等と発話し、Aアプリを起動する。このとき、ユーザは、「Aアプリの表示機能を起動して」等と発話し、Aアプリの表示機能を起動するようにしてもよい。
ユーザ端末10Aは、Aアプリの起動に伴い、撮影装置160を起動し、撮影中のカメラ画像をディスプレイ151に表示する。
ユーザは、ディスプレイ151越しに見えるユーザ端末10B(物体)をタップする。ユーザ端末10Aの検知モジュール139は、タップのジェスチャを検知する。また、ユーザは、音声等でユーザ端末10Bの存在をユーザ端末10Aに知らせてもよい。
ユーザ端末10Aの特定モジュール135は、撮影装置160からのカメラ画像内における、タップした位置情報と、カメラ画像とに基づき、物体認識を行うようサーバ20Aにリクエストする。
サーバ20Aの物体認識モジュール236は、取得されたカメラ画像の画像データに基づき、画像データ内の物体に最も類似する物体の情報を取得するようDB2にリクエストする。なお、DB2は、カメラ画像の画像データと、画像内の物体IDとを含む学習データを用いて学習された学習済みモデルを保持しており、サーバ20Aからカメラ画像の画像データが入力されると、この画像データに対応する物体IDを出力してもよい。
サーバ20Aの物体認識モジュール236は、DB2から、物体IDと、物体の画面内の位置を含む位置情報とを取得する。
サーバ20Aの物体認識モジュール236は、物体IDと位置情報とをユーザ端末10Aに送信する。
ユーザ端末10Aの特定モジュール135は、物体の位置情報に基づき、カメラ画像の所定領域をクロップする(切り出す)。
ユーザ端末10Aの特定モジュール135は、クロップ済み画像内の文字列を認識するようリクエストをサーバ20Bに送信する。
サーバ20Bの文字認識モジュール237は、クロップ済み画像内から文字列を認識し、画像内における文字列の位置情報を取得する。サーバ20Bの文字認識モジュール237は、認識された文字列の文字情報と位置情報とを含む認識結果をユーザ端末10Aに送信する。
ユーザ端末10Aの取得モジュール136は、認識結果に含まれる文字列の一番上の行(文字情報)を、画面の名称(画面名)とし、以下の行(文字情報)を画面の内容(項目名)として保存する。
ユーザ端末10Aの取得モジュール136は、画面の名称(画面名)と画面の内容(項目名又は文字情報)に基づいて、ガイド情報をダウンロードするためのURLを取得するようDB2にリクエストする。
ユーザ端末10Aの取得モジュール136は、DB2からガイド情報のダウンロードURLを取得する。
ユーザ端末10Aの取得モジュール136は、ガイド情報のダウンロードURLを用いて、DB1に格納されたガイド情報のファイルを取得するよう、DB1にリクエストする。
ユーザ端末10Aの取得モジュール136は、DB1からガイド情報のファイルをダウンロードして取得する。
ユーザ端末10Aの表示制御モジュール137は、例えば、手の3Dモデルに設定したガイド情報(手のアニメーション)を、項目名の文字列(文字情報)の位置情報に基づいて再生制御する。
ユーザは、ディスプレイ151越しに見るユーザ端末10Bの所定画面に対し、ユーザ端末10Aのディスプレイ151に表示されるガイド情報に従って、操作を行う。また、ユーザは、「次へ」などの音声を発したり、次に進むことを示す所定のジェスチャや、ハンドアニメーションと同じ手の位置(二次元や三次元データは問わず)で同じ動きをしたりすることで、ユーザ端末10側でこれらの言動を認識し、次の行の項目名の文字列に対応するガイド情報を表示させることができる。
次に、ユーザ端末10Aのディスプレイ151に表示される例について説明する。図9は、実施形態に係るユーザ端末10Aにおける画面遷移の一例を示す図である。図9に示す画面H10は、携帯電話の枠G10が表示制御モジュール137により表示され、ユーザに対してユーザ端末10Bの位置を知らせる例を示す。枠G10は表示されなくてもよい。
また、上述した各実施形態における変形例を以下に示す。
変形例1では、物体認識において、以下の技術を組み合わせてもよい。例えば、VPS(Visual Positioning System)、GPS(Global Positioning System)などの位置情報、信号強度などから通信状況を判定するネットワーク情報、超音波等である。例えば、複数の同じような物体として、券売機や宅配ロッカー、宅配ボックスなどがある場合に、位置情報と画像とに基づいて、どの物体かが特定されてもよい。
物体の特定と認識に用いる画像は矩形でなくてもよい。また、物体認識において、動的ではなく事前に準備した学習データを活用してもよい。例えば、Semantic Segmentation、Instance Segmentation、立体認識などを用いて物体認識を行ってもよい。
ユーザが次の操作に移る際のトリガとして、音声等が用いられてもよい。この場合、ユーザ端末10Aは、スピーカやマイクが設けられる。また、画像認識が状況判断の際に適宜組み合わされてもよい。また、ガイドの進め方は音声認識でなくてもよい。例えば、ハンドジェスチャ、画像認識による設定されそうな項目の分析、画面をタップなどで用いられてもよい。
ガイド情報は、ハンドモーションだけでなく、次の情報を追加してもよい。例えば、音声、テキスト、動画像、静止画像などの画像、熱等の触覚や煙の匂い等の嗅覚、食べ物の味等の味覚などの情報である。また、ガイド情報は、ユーザ端末10Aに保存しておいたハンドモーションをアニメーションとして、手の3Dモデルに反映させて動かしてもよい。
ガイド情報の登録が可能な情報処理装置(物体)としては、スマートフォン、文字が書いてあるポスターやノート、パーソナルコンピュータ、スタジアムの大型スクリーン、コンビニエンスストアのマルチメディア端末、郵便局や宅配便の送り状 (ゆうプリタッチ等)、宅配便ロッカーや宅配ボックス (Pudo等)、リモコン (クーラー等)、券売機、テレビ等が挙げられる。
視覚障害者が使用する点字等を含む文字認識で取得したテキストを用いて、画面を分析する方法は、アイコン等の画像認識と組み合わせてもよく、フォントのサイズや太さ、位置、色を用いてのテキストの重要性を判別し、重要性に基づいてガイド情報の表示の順を変更したりしてもよい。
また、ガイド情報を表示する装置としては、スマートフォン、タブレット端末、スマートグラス、HMD(Head Mounted Display)、スマートコンタクトレンズ、脳侵襲型デバイス、脳非侵襲型デバイス、ロボットなどが挙げられる。
また、サーバ20が有する各機能のうち、少なくとも1部はユーザ端末10Aに設けられてもよい。また、サーバ20が記憶する各データのうち、少なくとも1部はユーザ端末10Aに設けられてもよい。
10A、10B 情報処理装置(ユーザ端末)
20、20A、20B 情報処理装置(サーバ)
110、210 処理装置(CPU)
120、220 ネットワーク通信インタフェース
130、230 メモリ
131、231 オペレーティングシステム
132、232 ネットワーク通信モジュール
133 画像関連データ
134 テキスト関連データ
135 特定モジュール
136 取得モジュール
137 表示制御モジュール
138 取引制御モジュール
139 検知モジュール
140 警告モジュール
150 ユーザインタフェース
160 撮影装置
170、270 通信バス
233 物体データ
234 文字認識データ
235 ガイド格納先データ
236 物体認識モジュール
237 文字認識モジュール
238 ガイド制御モジュール
239 電子商取引モジュール
240 音声認識モジュール
Claims (14)
- 情報処理装置に含まれる1又は複数のプロセッサが、
撮影装置により撮影中の画像を表示制御することと、
前記画像内に表示される他の情報処理装置の画面を特定することと、
特定された画面内に表示される文字が認識され、当該文字の文字情報を含む認識結果を取得することと、
前記認識結果に対応するガイド情報を取得することと、
前記ガイド情報を、対応する文字情報に関連付けて前記撮影中の画像に重畳して表示制御することと、を実行する情報処理方法。 - 前記ガイド情報を重畳して表示制御することは、
ユーザのハンドの位置に対応する文字情報を特定し、
特定された文字情報に対応するガイド情報を特定し、
特定されたガイド情報を、特定された文字情報に関連付けて前記撮影中の画像に重畳して表示制御することを含む、請求項1に記載の情報処理方法。 - 前記画面を特定することは、
前記情報処理装置の画面が識別され、当該画面の識別情報と、当該画面の位置情報とを取得し、
前記位置情報に基づき文字認識する領域を特定することを含み、
前記文字の認識結果を取得することは、
特定された領域内の画像から文字が認識され、当該文字の文字情報を含む認識結果を取得することを含む、請求項1又は2に記載の情報処理方法。 - 前記ガイド情報は、各文字情報に関連する各項目に対応する他のユーザのハンド操作に関する動画を含む、請求項1乃至3のいずれか一項に記載の情報処理方法。
- 前記1又は複数のプロセッサが、
前記文字情報に関連する項目に対して入力される文字が認識され、当該文字の認識結果が、前記項目に関連付けられた入力条件を満たさない場合、警告を出力すること、をさらに実行する請求項1乃至4のいずれか一項に記載の情報処理方法。 - 前記ガイド情報を重畳して表示制御することは、
前記認識結果に含まれる各文字情報を表示制御し、
ユーザにより選択された文字情報に対応するガイド情報を前記撮影中の画像に重畳して表示制御することを含む、請求項1乃至5のいずれか一項に記載の情報処理方法。 - 情報処理装置に含まれる1又は複数のプロセッサに、
撮影装置により撮影中の画像を表示制御することと、
前記画像内に表示される他の情報処理装置の画面を特定することと、
特定された画面内に表示される文字が認識され、当該文字の文字情報を含む認識結果を取得することと、
前記認識結果に対応するガイド情報を取得することと、
前記ガイド情報を、対応する文字情報に関連付けて前記撮影中の画像に重畳して表示制御することと、を実行させるプログラム。 - 1又は複数のプロセッサを含む情報処理装置であって、
前記1又は複数のプロセッサが、
撮影装置により撮影中の画像を表示制御することと、
前記画像内に表示される他の情報処理装置の画面を特定することと、
特定された画面内に表示される文字が識別され、当該文字の文字情報を含む認識結果を取得することと、
前記認識結果に対応するガイド情報を取得することと、
前記ガイド情報を、対応する文字情報に関連付けて前記撮影中の画像に重畳して表示制御することと、を実行する情報処理装置。 - 情報処理装置に含まれる1又は複数のプロセッサが、
撮影装置により撮影中の画像を表示制御することと、
前記画像内に表示される他の情報処理装置の画面を特定することと、
特定された画面内に表示される文字が認識され、当該文字の文字情報を含む認識結果を取得することと、
認識された各文字情報に対応する、ユーザのハンド操作を含む各ガイド情報を前記撮影装置により撮影することと、
前記各文字情報と、前記各ガイド情報とをサーバに送信することと、を実行する情報処理方法。 - 前記ガイド情報は、前記ユーザによる文字入力を含む、請求項9に記載の情報処理方法。
- 前記文字入力により個人情報が含まれる場合、前記ガイド情報は、前記個人情報を含まない、請求項9に記載の情報処理方法。
- 前記画面を特定することは、
前記情報処理装置の画面が識別され、当該画面の識別情報と、当該画面の位置情報とを取得し、
前記位置情報に基づき文字認識する領域を特定することを含み、
前記文字の認識結果を取得することは、
特定された領域内の画像から文字が認識され、当該文字の文字情報を含む認識結果を取得することを含む、請求項9乃至11の何れか一項に記載の情報処理方法。 - 情報処理装置に含まれる1又は複数のプロセッサに、
撮影装置により撮影中の画像を表示制御することと、
前記画像内に表示される他の情報処理装置の画面を特定することと、
特定された画面内に表示される文字が認識され、当該文字の文字情報を含む認識結果を取得することと、
認識された各文字情報に対応する、ユーザのハンド操作を含む各ガイド情報を前記撮影装置により撮影することと、
前記各文字情報と、前記各ガイド情報とをサーバに送信することと、を実行させる情報処理方法。 - 1又は複数のプロセッサを含む情報処理装置であって、
前記1又は複数のプロセッサが、
撮影装置により撮影中の画像を表示制御することと、
前記画像内に表示される他の情報処理装置の画面を特定することと、
特定された画面内に表示される文字が認識され、当該文字の文字情報を含む認識結果を取得することと、
認識された各文字情報に対応する、ユーザのハンド操作を含む各ガイド情報を前記撮影装置により撮影することと、
前記各文字情報と、前記各ガイド情報とをサーバに送信することと、を実行する情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020025389A JP7382847B2 (ja) | 2020-02-18 | 2020-02-18 | 情報処理方法、プログラム、及び情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020025389A JP7382847B2 (ja) | 2020-02-18 | 2020-02-18 | 情報処理方法、プログラム、及び情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021131617A true JP2021131617A (ja) | 2021-09-09 |
JP7382847B2 JP7382847B2 (ja) | 2023-11-17 |
Family
ID=77551059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020025389A Active JP7382847B2 (ja) | 2020-02-18 | 2020-02-18 | 情報処理方法、プログラム、及び情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7382847B2 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6275011B2 (ja) | 2014-10-15 | 2018-02-07 | ソフトバンク株式会社 | 作業支援システム及びプログラム |
US9804813B2 (en) | 2014-11-26 | 2017-10-31 | The United States Of America As Represented By Secretary Of The Navy | Augmented reality cross-domain solution for physically disconnected security domains |
JP6190027B1 (ja) | 2016-10-20 | 2017-08-30 | 三菱電機インフォメーションシステムズ株式会社 | 作業支援装置および作業支援プログラム |
JP2018112802A (ja) | 2017-01-10 | 2018-07-19 | 京セラドキュメントソリューションズ株式会社 | 情報提供装置 |
-
2020
- 2020-02-18 JP JP2020025389A patent/JP7382847B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7382847B2 (ja) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9911239B2 (en) | Augmenting a live view | |
US10891671B2 (en) | Image recognition result culling | |
US9959467B2 (en) | Image processing client | |
US20190333478A1 (en) | Adaptive fiducials for image match recognition and tracking | |
US11023106B2 (en) | Digital supplement association and retrieval for visual search | |
US20140211067A1 (en) | User-guided object identification | |
WO2016033495A2 (en) | Methods and arrangements including data migration among computing platforms, e.g., through use of steganographic screen encoding | |
KR102014761B1 (ko) | 공간객체 검색결과 정렬 방법, 시스템 및 컴퓨터 독취가능 저장장치 | |
US9575995B2 (en) | Image processing methods | |
US9600720B1 (en) | Using available data to assist in object recognition | |
US10825048B2 (en) | Image processing methods | |
US20230315788A1 (en) | Digital supplement association and retrieval for visual search | |
US20160342624A1 (en) | Image Tagging System | |
US11159590B1 (en) | Content recognition while screen sharing | |
US9639867B2 (en) | Image processing system including image priority | |
US20150341541A1 (en) | Methods and systems of remote acquisition of digital images or models | |
US20230298073A1 (en) | Media processing techniques for enhancing content | |
WO2015140922A1 (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
JP7382847B2 (ja) | 情報処理方法、プログラム、及び情報処理装置 | |
US20150220569A1 (en) | Priority Based Image Processing Methods | |
EP3811238A1 (en) | Digital supplement association and retrieval for visual search | |
KR20220123900A (ko) | 실감 콘텐츠 제공 시스템 및 그 방법 | |
JP2024018302A (ja) | 情報処理装置、方法及びプログラム並びに情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7382847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |