JP2021072001A - プログラム、情報処理装置、情報処理方法、及び情報処理システム - Google Patents

プログラム、情報処理装置、情報処理方法、及び情報処理システム Download PDF

Info

Publication number
JP2021072001A
JP2021072001A JP2019199390A JP2019199390A JP2021072001A JP 2021072001 A JP2021072001 A JP 2021072001A JP 2019199390 A JP2019199390 A JP 2019199390A JP 2019199390 A JP2019199390 A JP 2019199390A JP 2021072001 A JP2021072001 A JP 2021072001A
Authority
JP
Japan
Prior art keywords
product
image data
captured
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019199390A
Other languages
English (en)
Inventor
貴裕 中山
Takahiro Nakayama
貴裕 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019199390A priority Critical patent/JP2021072001A/ja
Priority to US17/079,215 priority patent/US11743415B2/en
Publication of JP2021072001A publication Critical patent/JP2021072001A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K2007/10504Data fields affixed to objects or articles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Toxicology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)

Abstract

【課題】製品の初期設置作業の補助を可能にする。【解決手段】表示制御手段203は、撮像手段202によって撮像された製品の撮像画像を表示手段に表示させる。第1取得手段203は、撮像画像データに基づき製品の初期設定に関連する製品情報を取得する。第2取得手段は、製品の撮像画像データと製品情報とに基づき製品の設置状態の判定結果を取得する。さらに、第3取得手段は、第2取得手段によって取得された設置状態に応じて、ユーザが前記製品に対して実施すべき設置作業の指示画像と前記撮像手段によって撮像された撮像画像とを合成した合成画像を表す合成画像データを取得する。表示制御手段は、合成画像データに基づいて表示手段に合成画像を表示させる。【選択図】図1

Description

本発明は、製品を撮像した画像を利用して製品の初期設置を補助するための表示を行う技術に関する。
電子機器などの精密機器は、流通過程における破損等を避けるため、複数の梱包材で機器の被覆、固定を行い、製品として出荷される。このため、製品を購入したユーザは、着荷した製品の開梱・初期設置・初期設定といった設置作業を行う必要がある。このような製品の設置作業は、電子機器の進歩に伴って複雑化しており、一般ユーザには、煩雑で難易度の高い作業となっている。
近年では、現実の画像にデジタル情報を重ね合わせるAR(Augmented Reality)技術を用いて、視覚的にユーザの作業を補助することが提案、実施されている。
特許文献1には、エラー状態にある画像形成装置に対して、エラーから回復するための操作をARガイダンスで提示する技術が開示されている。具体的には、外部サーバにネットワークを通じて接続されている画像形成装置がエラー状態となったとき、外部サーバがエラーログの解析を行い、エラーから回復するための操作を提示するARガイダンスを含むAR情報をユーザのモバイルデバイスに転送する。ユーザは、モバイルデバイスに表示されたAR情報を参照しつつエラーを回復させるための作業を行う。
特開2013−140563号公報
しかし、特許文献1に開示の技術は、画像形成装置が外部のサーバとネットワーク接続されていることを必要とするため、梱包された状態にある着荷時の製品の初期設置作業に適用することはできない。
そこで、本発明は、製品の初期設置作業の補助を表示によって可能にすることを目的とする。
上記課題を解決するため、本発明は、情報処理装置のコンピュータを、撮像手段によって撮像された製品の撮像画像を表す撮像画像データに基づき前記撮像画像を表示手段に表示させる表示制御手段と、前記撮像画像データに基づき前記製品の初期設定に関連する製品情報を取得する第1取得手段と、前記製品の撮像画像データと前記製品情報とに基づき前記製品の設置状態の判定結果を取得する第2取得手段と、前記第2取得手段によって取得された前記設置状態に応じて、ユーザが前記製品に対して実施すべき設置作業の指示画像と前記撮像手段によって撮像された撮像画像とを合成した合成画像を表す合成画像データを取得するする第3取得手段と、として実行させるプログラムであって、前記表示制御手段は、前記合成画像データに基づいて前記表示手段に前記合成画像を表示させることを特徴とするプログラムである。
本発明によれば、製品の初期設置作業の補助を表示によって行うことが可能になる。
本実施形態における情報処理システムの構成、及び製品を示す図である。 梱包箱の一例を示す斜視図である。 プリンタ本体と、内包材の一例を示す図である。 梱包材情報を格納したテーブルの一例を示す図である。 ARガイダンスを実行する手順を示すフローチャートである。 図5のS3の処理を詳細に示すフローチャートである。 図6のS103の処理を詳細に示すフローチャートである。 図6のS104の処理を詳細に示すフローチャートである。 図8に示す処理の具体例を示すフローチャートである。 図6のS403の処理を詳細に示すフローチャートである 図9のS503の処理をより具体的に示すフローチャートである。 図8のS403の処理中に行われる割込処理を示すフローチャートである。 図6のS105の処理を具体的に示すフローチャートである。 AR技術によって表示される画像の一例を示す図である。 AR技術によってユーザに指示するAR画像の一例を示す図である。
以下、本発明の第1実施形態を、図面を参照しつつ説明する。
<情報処理システムの構成>
本実施形態に係る情報処理システムは、所定の機器を梱包材によって梱包した製品の初期設置作業を、AR(augmented reality)ガイダンスによって補助するための処理を行う。
図1は、本実施形態における情報処理システムの構成、及び初期設置作業の対象となる製品10を示す図である。本実施形態における情報処理システムは、ユーザが操作可能な端末200と、端末200と通信可能なネットワーク上の外部サーバであるクラウドサーバ300とを含み構成される。なお、本実施形態では、梱包材によって梱包された機器本体として、プリンタ本体を例に採り説明する。
本実施形態の情報処理システムでは、端末として、多機能携帯電話(以下、スマートフォンと称す)200を用いている。スマートフォン200には、プリンタ本体100やクラウドサーバ300と通信可能な無線通信部201と、製品10の全体または一部、あるいはQRコード104や識別子105を撮像した撮像画像データを取得するカメラ(撮像手段)202が設けられている。さらに、スマートフォン202には、カメラ202によって撮像された撮像画像や後述のAR画像等を表示可能な表示部(表示手段)204と、入力操作を行う操作部205と、制御部203とが設けられている。
制御部203は、CPU等のプロセッサにより構成され、上記各部の制御を行う制御手段としての機能、後述の判定処理を行う判定手段としての機能、画像データを生成する生成手段としての機能を果す。すなわち、制御部203は、後述のクラウドサーバ300から取得した後述の製品情報等に基づき、ユーザが次に何をすべきか等の指示画像を表す指示画像データの生成を行う。さらに、制御部203は、生成した指示画像データとカメラ202によって取得した撮像画像データとを合成して合成画像データ(AR画像データ)を生成し、生成した合成画像データに基づき表示部204に合成画像(AR画像)を表示させる制御を行う。このように、本実施形態における制御部203は、各部の制御動作及び各種情報の取得を行う機能を有し、特許請求の範囲に記載された本発明の表示制御手段、第1取得手段、第2取得手段、第3取得手段としての機能を果す。
なお、本実施形態では、端末としてスマートフォン200を用いているが、スマートフォン200以外に、タブレットPC(personal computer)やノート型PCなどを端末として用いることも可能である。つまり、本実施形態の情報処理システムに用いる端末は、カメラ202、表示部204、操作部205、無線通信部201、及び制御部203と同等の機能を有するものであればよい。
また、クラウドサーバ300は、ネットワークに対して無線通信を行う無線通信部301と、製品10の初期設置に関するARガイダンスを行うための製品情報をスマートフォン200に供給するサーバ302とを備える。クラウドサーバ300から供給する製品情報としては、例えば、以下のような情報がある。
(a)製品状態識別用データ
(b)梱包箱向き認識用データ
(c)プリンタ本体の向き認識用データ
(d)梱包材情報テーブル
(e)開梱手順
これらの製品情報は対象となるプリンタの機種によって異なり、対象となるプリンタに最適な情報を供給する。
ここで、本実施形態に用いる製品について説明する。図1に示すように、本実施形態における製品10は、プリンタ本体100と、プリンタ本体100を梱包する梱包材103と、梱包材103とプリンタ本体100のそれぞれに付与された識別子105とを備える。本実施形態における梱包材103は、プリンタ本体100を梱包する内包材102と、内包材102によって梱包されたプリント本体100を収容する外包材である梱包箱101とを備える。
梱包箱101の外側には、プリンタ情報を埋め込むための識別子105とQRコード104とが付与されている。識別子105は、その識別子を表す画像(識別子画像)を読み取ることで、読み取った画像データに紐付けられている様々な製品情報を取得できる識別記号の総称であり、例えば以下のようなものがある。
1.ブランドロゴ
2.プリンタ梱包材自体
3.プリンタ筐体に埋め込んだ一部デザイン
4.ピクトグラム記号
5.QRコード
6.電子すかし
図2は、製品10の外殻をなす梱包箱101の一例を示している。なお、図1は、製品100が着荷した直後の状態、つまり、製品の開梱前の状態を示している。梱包箱101の外面には、製品を特定するための特定情報を含むQRコード104と、識別子105が付与されている。ここでは、識別子105として、異なる複数種の識別子105a、105b、105c(図2参照)が、それぞれ梱包箱101の異なる外面に印刷されている。
QRコード104は、プリンタ本体を特定する情報が含まれている。このQRコード104をスマートフォン200で読み取り、読み取った情報をネットワーク上のクラウドサーバ300にアクセスすることにより、クラウドサーバ300からQRコード104に対応した製品10に関連する情報(製品情報)を制御部203で取得することができる。
また、識別子105は様々な情報を埋め込む記号によって構成されている。例えば、識別子105aは、製造メーカのロゴを識別子としている。スマートフォン200は、カメラ202によってこの識別子105aをスマートフォン200で読み取り、読み取った情報に基づき、梱包箱102の向きや開梱口OPの場所を認識する。本実施形態では、QRコード104と識別子105とが、それぞれ異なる位置に付与されているが、QRコード104によって表される情報と識別子105によって表される情報とをまとめた記号を識別子として梱包箱101の外側に印刷しても良い。
図3は、プリンタ本体100と、これを梱包する内包材102の一例を示す図である。本例において、内包材102は、第1内包材102aと、第2内包材102bと、第3内包材102cと、第4内包材102dと、第5内包材102eとを含む。第1内包材102a,第2内包材102bは、プリンタ本体100に設けられた可動部分等の固定及び保護を目的としたテープ状の部材(オレンジテープ)であり、プリンタ本体100の外面の一部に剥離可能に貼付される。第3内包材102cは、プリンタ本体100の全体を被覆するシート状または袋状の部材(保護ビニール)である。第4,第5内包材102d,102eは、第3内包材102bに覆われたプリンタ本体100の左右両側を覆う緩衝材であり、プリンタ本体100を梱包箱101内で固定し、保護する機能を果す。
図3(a),(b)に示す第1,第2内包材102a,102b及び第4,第5内包材102d,102eは、プリンタ本体100を固定、保護する機能だけでなく、それ自体が識別子105としての機能を有している。すなわち、第1、第3内包材102a、102b,102d,103eの有無が、内包材が取り外されていないか、取り外されているかを表す情報となる。また、図2(c)に示すように、梱包材102aと識別子105とをそれぞれ独立して設ける形態をとることも可能である。
図4は、クラウドサーバ300に設けられる梱包材情報テーブルの一例を示す図である。この梱包材情報テーブル(以下、単にテーブルTと称す)には、プリンタ本体100を梱包した製品10の全ての梱包材103を正しい順番で、正確に外すための情報(製品情報)が格納されている。テーブルTの項目としては、“分類(名前)”、“位置”、“優先度”、“確認識別子”、“判定方法”、“向き識別”などが含まれている。各項目には、以下のような情報が格納されている。
・“分類(名前)”の項目には、対象となる製品10の全ての梱包材103の分類、もしくは名前を示す情報が格納されている。
・“位置”の項目には、対象となる梱包材103の位置情報が格納されている。本例では、位置情報として、“全体”、“場所(1)”、“場所(2)”などの情報がある。“全体”は、梱包材が製品の全体に亘っていることを意味し、“場所(1)”はオレンジテープ102aが設けられている位置を、“場所(2)”はオレンジテープ102bが設けられている位置を示している。
・“優先度”の項目には、梱包材103を取り外す順番を示す情報が格納されている。本例では数字が小さいものから順番に梱包材103が取り外される。
・“確認識別子”の項目には、梱包材103が取り外されたことを認識するために使用する識別子の情報が格納されている。具体的には、梱包材103の位置に対する画像認識によって、この項目に格納された識別子の情報が確認できたとき、あるいは逆に、確認できなかったときに、梱包材103が取り外されたと認識する。
・“判定方法”の項目には、識別子がどのような状態のときに梱包材が取り外されたと判定するかに関する情報が格納されている。具体的には、判定方法の項目が“無し”となっている判定方法では、識別子が対象位置に無い場合に梱包材が取り外されたと判定する。また、判定方法の項目が“有り”となっている判定方法では、識別子の存在が確認された状態で梱包材が取り外されたと判定する。
・“向き識別”の項目には、梱包材103の位置を識別するためにプリンタ本体100の向きを識別する必要性があるか否かについての情報が格納されている。梱包材103には、プリンタ本体100の向きによって位置を認識できるものと、できないものとが存在することから、“向き識別”の項目の情報が必要となる。例えば、梱包材103がプリンタ全体を覆うようなものの場合は梱包材103の位置は明確であるためプリンタ本体100の向きを識別する必要はない。これに対し、梱包材103がプリンタ本体100の一部に設けられている場合には、プリンタ本体100の向きを認識することで初めて、梱包材103の位置を正しく認識することができる。
<ARガイダンスのための処理>
図5は、製品10の初期設置作業の補助をARガイダンスによって行う際の手順を示すフローチャートである。なお、図5及び図6ないし図12に示すフローチャートにおいて、各工程番号に付されているSはステップを意味する。
ユーザがスマートフォンの撮像開始指令を入力すると、制御部203はスマートフォン上で専用アプリケーションを起動し、カメラ202による撮像を開始させる。この状態でユーザがカメラ202を梱包箱101に印刷されているQRコードに向けると、制御部203は、カメラ202によって撮像された画像データからQRコードを抽出して読み取り、読み取ったQRコードを、無線通信部201からネットワーク上のクラウドサーバ300に送信する(S1)。クラウトサーバ300は、受信したQRコードに対応した製品に関する情報(製品情報)を、ネットワークを介してスマートフォン200に送信する。クラウドサーブ300から送信された製品情報は、無線通信部201を介してスマートフォン200に受信され、制御部203に取得される(S2)。この後、スマートフォン200の制御部203は、取得した製品情報に基づいて、ユーザの初期設置に関するARガイダンスを表示部204において実行する(S3)。
図6は、図5のS3の処理を詳細に示すフローチャートである。S100において、制御部203は、スマートフォン200のカメラ202から対象となる製品10の撮像画像データを取得する。なお、ここで言う製品10とは、プリンタ本体100のみならずプリンタ本体100を覆う各種梱包材103によって覆われた状態の物も含む。次に、S101において、制御部203は、撮像画像データを画像認識によって解析し、製品10の設置状態を、以下の3つの状態に分類する。
・開梱前の状態:梱包箱101にプリンタ本体100が収容されており、未開封の状態
・開梱後の状態:プリンタ本体100から全ての梱包材103が取り除かれている状態
・開梱中の状態:プリンタ本体100の一部に梱包材103が取り付けられている等、上記2つの状態以外の状態
製品画像データを解析する方法としては、ディープラーニング等の機械学習を用いた画像認識やパターンマッチングを用いた画像認識が考えられる。例えば、ディープラーニングを用いて画像認識を行う場合には、上記3状態の製品10を撮像した画像をそれぞれ大量に学習させた学習モデルであるニューラルネットワークをスマートフォン200に用意しておく。具体的には、この学習モデルは、入力データとして画像が入力されることにより、出力データ(認識結果)として上記3つの状態のそれぞれの確率を出力する。よって、最も確率の高い出力値に対応する状態が、その画像の解析結果となる。
なお、学習モデルを学習させる場合には、学習用データとして、入力データとして上記3つの状態の製品10の画像と、各画像内の製品10の状態を示す情報を教師データ(正解データ)と、を用意する。そして、入力データである画像を学習モデルに入力することにより出力された出力データ(認識結果)と、教師データと、を損失関数に与えることにより、認識結果の正解からのずれ量が得られる。多数の学習用データに対してずれ量Lが小さくなるように、学習モデル中のニューラルネットワークのノード間の結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。
このようにして生成した学習モデルに対して、ユーザがスマートフォン200で撮像した製品10の画像を入力することで、制御部203は製品10の各状態を判定する。
また、制御部203は、パターンマッチングを用いて画像認識を行う場合には、識別子105の有無をパターンマッチングで判定する。例えば、開梱前にしか存在しない識別子を確認した場合は開梱前の状態であると判定し、開梱後でしか確認し得ない識別子を認識した場合は開梱中であると判定する。次に、S103,S104,S105において、制御部203は、製品の状態の判定結果に応じた初期設置処理、すなわち開梱前の処理、開梱中の処理、開梱後の処理を選択的に行う。それぞれの処理については後述する。
最後にS106において、制御部203は、全ての初期設置処理が終了したかを判定する。ここで、初期設置処理が完了したことを確認できた場合には、制御部203は処理を終了し、それ以外の場合は、再度、S101から上述の処理を順次行う。
図7は、図6のS103の処理を詳細に示すフローチャートであり、梱包箱101の開梱前の処理を示している。まずS201において、制御部203は、スマートフォン200のカメラ202によって取得した識別子105に基づき、梱包箱101の向きを認識する。具体的には、画像認識で認識した識別子105の種類と角度とによって梱包箱101の向きを認識する。例えば、図2で考えたとき、まず、プリンタ梱包箱101の105識別子105aを画像認識によって認識する。その結果、仮に識別子105aが水平から270度の向きにある認識したとする。この識別子情報と、クラウドサーバ300から取得した“梱包箱向き識別用データ”とを合わせて、梱包箱101が水平270度の向きであると認識する。
次にステップS202において、制御部203は、梱包箱101の向きとクラウドサーバ300から取得した“梱包箱向き識別用データ”を解析することで、開梱口OPの位置を特定する。最後に、ステップS203において、制御部203は、開梱口からプリンタを取り出す指示を、AR技術によって行う。図14は、AR技術によって表示される画像(AR画像)の一例を示す図である。図14(a),(b)は開梱口OPの開口前、開口後のAR画像を示しており、図14(c)は開梱が完了したことをユーザに通知するAR画像を示している。
図8は、図6のS104の処理を詳細に示すフローチャートであり、開梱中の処理を示している。S401ないしS403において、制御部203は、梱包材情報テーブルTにおける優先度が高い梱包材103から順番に、梱包材103が取り外されたか否かの確認を行う。例えばS401において、制御部203は、テーブルTの中の優先度1の梱包材の有無を1つずつ確認する。そして、優先度1の梱包材103が存在している場合には、優先度1の梱包材103が外れたことを確認するまで、スマートフォン200の表示部204によってARガイダンスを行う。その後、優先度2の梱包材、優先度3の梱包材を順次確認していき、優先度nの梱包材が製品10から外れると、S404へ移行する。S404において、制御部203は、全ての梱包材103が正しく外れたことをスマートフォン200の表示部204に表示させてユーザに通知し、S104の処理を終了する。
図9は、図8に示す処理をより具体的に示すフローチャートである。図5のテーブルTに基づいて制御部203により行われる、具体的な確認処理はS501〜S505に示すようになる。
まず、S501において、制御部203は、優先度1の梱包材である緩衝材(左側)102deと緩衝材(右側)102dが存在しているかどうかを確認し、第1内包材102a、102bが存在していないと判定されるまでARガイダンスを行う。
S502において、制御部203は、優先度2の第2梱包材である保護ビニール102cが存在しているかどうかを確認し、第2梱包材102cが存在していないと判定されるまでARガイダンスを行う。S503において、制御部203は、優先度3の第3梱包材であるオレンジテープ102aが存在しているかどうかを確認する。このオレンジテープ102aは、プリンタ本体100の側面と上面とに跨る場所[1]に設けられており、この場所[1]からオレンジテープ102aが取り外されて、存在しないと判定されるまでARガイダンスを行う。
S504において、制御部203は、優先度4の第4梱包材であるオレンジテープ102bが存在するかどうかを確認する。この第4梱包材102eは、プリンタ本体100の正面と上面とに跨る場所[2]に設けられており、この場所[2]から第4梱包材102eが取り外されて、存在しないと判定されまでARガイダンスを行う。この後、S505において、制御部203は、全ての梱包材が正しく外れたことをスマートフォン200の表示部204によって通知する。
図10は、図6のS403の処理を詳細に示すフローチャートである。ここでは、優先度nの梱包材103を一個ずつ確認し、それぞれが正しく取り外されたことを確認する手順を示している。
まずS601において、制御部203は、図4に示すテーブルTから対象となる梱包材103の情報を取得する。次にS602において、制御部203は、S601で取得した情報に基づき、対象となる梱包材103の位置を特定するために、製品10の向きの識別が必要か否かを判定する。この判定は、対象となる梱包材に対応する「向き識別」の項目に定められている「不要」、「必要」の情報を取得することによって行う。ここで、向きの識別が必要であると判定された場合には、制御部203は、ステップS603において、スマートフォン200のカメラ202で撮像した製品の撮像画像データに基づいて画像認識及び解析を行い、製品の向きを判定する。画像認識の方法には、製品に付与されている識別子を用いたパターンマッチングや、ディープラーニングなどを用いた方法を適用する。
次にS604において、制御部203は、テーブルTの位置情報とS603で判定した製品10の向き情報とに基づき、梱包材103の位置を特定する。位置情報には製品10のどの場所にどの梱包材103が存在するかを示す情報が含まれている。この位置情報と向き情報とを組み合わせることによって、スマートフォン200のカメラ202で取得している撮像画像に対して、梱包材103の位置を特定することができる。
次にS605において、制御部203は、スマートフォン200のカメラ202で取得している撮像画像に製品10の梱包材103が含まれているかを判定する。ここで、梱包材103が含まれていないと判定された場合には、S606に進み、スマートフォン200のカメラ202で梱包材103が設けられている位置の撮像を指示するARガイダンスをスマートフォン200の表示部204において行う。
次にS607において、制御部203は、取り外しの対象となっている梱包材103の有無を識別子105によって判定する。具体的には、梱包材103を取り外すと識別子105が露出するように構成されている場合、カメラ202による撮像画像に識別子105が含まれていた場合に、梱包材103が取り外されたと判定する。あるいは、梱包材103自体に識別子105が付与されている場合には、カメラ202による撮像画像に識別子が含まれていない場合に梱包材103が取り外されたと判定する。
次にS608において、制御部203は、梱包材103が取り外されているかを判定する。ここで、梱包材103が取り外されていないと判定された場合は、S609へ移行し、梱包材103を取り外すことをユーザに促すARガイダンスを表示部204によって行った後、S607に戻る。また、S608において梱包材103が取り外されていると判定された場合は、S610に進み、梱包材103が正しく取り外されたこと表すAR画像を表示部204に表示する。この通知を行うことにより、ユーザは、正しい手順で作業が進められていることを認識することができる。従って、取り外した梱包材103を再び元に戻すなどの誤った作業が行われることもなくなる。
この後、S611において、制御部203は、全ての梱包材103が取り外されたかを判定する。そして、全ての梱包材103が取り外されたと判定されると、一連の処理を終了する。また、取り外されていない梱包材が残されている場合には、制御部203は、再びステップS601から処理を続行する。
図11は、図9のS503に示した“オレンジテープを確認”の処理をより具体的に示すフローチャートである。まず、制御部203は、S701において、梱包材情報テーブルTを参照し、対象となる梱包材の情報を取得する。ここでは、対象となる梱包材103はオレンジテープであり、オレンジテープの位置を特定するためには、製品10の向きを認識することが必要となる。このため、次のS703において、制御部203は、製品10の向きの認識を行う。
次にS704において、制御部203は、テーブルTから取得した位置情報とS703で認識した製品の向き情報とに基づき、オレンジテープ102aが設けられている位置を特定する。S705では、スマートフォン200のカメラ202で撮像した撮像画像にオレンジテープ102aが設けられている位置(対象位置)が写っているかを判定する。ここで、オレンジテープ102aが設けられている位置が写っていないと判定された場合には、S706へ進み、スマートフォン200でオレンジテープ102aが設けられている対象位置の撮像を指示するARガイダンスを表示部204において行う。
ステップS707において、制御部203は、対象位置におけるオレンジテープ102aの有無を識別子105によって判定する。具体的には、オレンジテープ102aを取り外すと識別子105が露出する場合は、識別子105が有ることでオレンジテープが取り外されたと判定する。また、オレンジテープ自体が識別子としての機能を有している場合は、オレンジテープが無くなることで梱包材103が取り外されたと判定する。
次にS708において、制御部203は、オレンジテープ102aが取り外されているかを判定する。ここで、オレンジテープ102aが取り外されていない(NO)と判定された場合には、S709において、制御部203は、オレンジテープを外すことを指示するAR画像を表示部204に表示する。また、S708においてオレンジテープ102aが取り外されていないと判定した場合、制御部203は、S710において、オレンジテープ102aが正しく取り外されたことを、表示部204を介してユーザに通知する。
図15に、AR技術によってユーザに指示するAR画像の一例を示す。図15(a)は、図11のS706の処理により、オレンジテープ102aが設けられる位置をスマートフォン200で撮像するようにユーザに指示しているAR画像を示す図である。図15(b)は図11のS709において、オレンジテープを取り外すことをユーザに指示するAR画像を示す図である。図15(c)は図11のS710おいて、梱包材103が正しく取り外されたことをユーザに通知するAR画像を示す図である。
図12は、図8のS403の処理中に、ユーザ操作によって処理を終了させる割込処理を示すフローチャートである。S403に示す優先度nの梱包材103の確認処理中に、ユーザが対象となる梱包材103を取り外したことを入力すると、制御部203は、S403aにおいて割り込み処理を実行し、S403の処理を終了させる。これによれば、ユーザが梱包材103の取外しを終えた時点で、図8に示す全ての確認処理が完了するのを待たずに、S403の処理を終了させることができる。このため、速やかに次の開梱後の処理に移行することが可能になる。なお、ユーザが対象となる梱包材103を取り外したことを入力する方法としては、例えば、スマートフォン200の表示部204に表示されている完了ボタンやチェックボックス等のタッチ入力UI(User Interface)や音声UIによる入力等を用いる。
図13は、図6のS105における開梱後の処理を具体的に示すフローチャートである。まず、S801において、制御部203は、プリンタ本体100にACケーブル(装着部材)を接続する指示を、ARガイダンスによって行う。具体的には、プリンタ本体100に設けられたACケーブルの差込口を明示すると共に、その差込口に対するACケーブルの接続操作を指示するARガイダンスの画像をスマートフォン200の表示部204に表示する。
次に、S802では、制御部203は、プリンタ本体100に設けられているソフトキーによる電源ONの指示を、AR画像によって行う。具体的には、プリンタ本体100に設けられている電源ボタンを明示すると共に、電源ボタンの操作方法をAR画像によって指示する。これにより、電源ONボタンを長押しするなど、電機種固有の操作があっても、ユーザは混乱なく作業を進めることができる。
次に、S803、S804において、制御部203は、プリンタ本体100に対する初期セットアップ作業(初期設定作業)をAR画像によって指示する。すなわち、S803では、プリンタ本体100にインクタンク(装着部材)を装着する指示をAR画像によって指示する。この場合、インクタンクを画像認識して、インクタンクの梱包を正しく取り外した後、プリンタ本体100の正しい位置にインクタンクを装着させるためのガイダンスを行う。これにより、ユーザはインクタンクの誤装着や梱包材の外し忘れに起因するエラーの発生などを未然に防ぐことができる。
また、S804において、制御部203は、プリンタ本体100におけるレジストレーション調整の実行をAR画像によって指示する。具体的には、印刷用紙のセットやプリンタ本体100に設けられたUI上の操作等をAR画像によって指示する。
(他の実施形態)
上記の実施形態では、プリンタ本体100を梱包材103によって梱包した製品10の開梱作業に対して、AR画像によるガイダンスを行うことでユーザの開梱作業を補助する例を示した。しかし、本発明はプリンタだけでなく、開梱作業を必要とする様々な製品に対して適用することができる。例えば、開梱作業や設定作業などが複雑なパーソナルコンピュータや測定機器、サービスマンによるサポートが必要な大型機器等に対して、梱包材や機器本体に識別子情報を埋め込むことで、上述の第1実施形態と同様に設置作業の補助を、AR技術を用いて行うことができる。
また、上記第1実施形態では、図3のS3に示す処理をスマートフォン200側で行う例を示した。しかし、図3のS3に示す処理の一部をクラウドサーバ300に設けられたサーバ302によって実行させることも可能である。例えば、クラウドサーバ300はスマートフォン200と同様にCPU等のプロセッサを備えるため、スマートフォン200のカメラによる撮像画像にARガイダンスを行うための情報を重ねてAR画像を生成する処理をクラウドサーバ300側で行うことができる。そして、生成したAR画像をクラウドサーバ300からスマートフォン200へと送信することによって、表示部204にAR画像を表示させることも可能である。
さらに、上記実施形態では、クラウドサーバから取得した情報を用いてAR画像によるガイダンスを行う例を示したが、本発明はこれに限定されない。すなわち、クラウドサーバなどの外部サーバを用いず、スマートフォン等の端末に設けられた情報のみに基づいてAR画像の生成を行うようにすることも可能である。例えば、図4に示すようなテーブル情報を備えるARガイダンス用アプリケーションをスマートフォンに格納し、外部サーバとの通信を行うことなくARガイダンスを実行するようにすることも可能である。
さらに、本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、画像処理コントローラなどの制御手段を、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 製品
100 プリンタ本体
202 カメラ(撮像手段)
204 表示部(表示手段)
203 制御部(表示制御手段、第1取得手段、第2取得手段、第3取得手段)

Claims (14)

  1. 情報処理装置のコンピュータを、
    撮像手段によって撮像された製品の撮像画像を表す撮像画像データに基づき前記撮像画像を表示手段に表示させる表示制御手段と、
    前記撮像画像データに基づき前記製品の初期設定に関連する製品情報を取得する第1取得手段と、
    前記製品の撮像画像データと前記製品情報とに基づき前記製品の設置状態の判定結果を取得する第2取得手段と、
    前記第2取得手段によって取得された前記設置状態に応じて、ユーザが前記製品に対して実施すべき設置作業の指示画像と前記撮像手段によって撮像された撮像画像とを合成した合成画像を表す合成画像データを取得するする第3取得手段と、
    として実行させるプログラムであって、
    前記表示制御手段は、前記合成画像データに基づいて前記表示手段に前記合成画像を表示させることを特徴とするプログラム。
  2. 前記製品は、少なくとも機器本体と、当該機器本体を覆う梱包材とを含むことを特徴とする請求項1に記載のプログラム。
  3. 前記製品情報は、前記機器本体に関する情報と、前記梱包材に関する情報と、を含むことを特徴とする請求項3に記載のプログラム。
  4. 前記第2取得手段は、前記製品の撮像画像データと前記梱包材に関する情報とに基づき、前記梱包材の状態の判定結果を取得することを特徴とする請求項2または3に記載のプログラム。
  5. 前記第2取得手段は、前記製品の前記梱包材が、開梱前、開梱中、開梱後のいずれの状態にあるかを示す判定結果を取得することを特徴とする請求項4に記載のプログラム。
  6. 前記梱包材は、前記製品の外面を形成する外包材と、前記外包材の中に収容され、前記機器本体を覆う内包材とを含み、
    前記外包材と前記内包材のそれぞれには識別子が付与されていることを特徴とする請求項2ないし5のいずれか1項に記載のプログラム。
  7. 前記第2取得手段は、前記製品の撮像画像データにおける前記識別子の有無、前記撮像画像における前記識別子の向きに基づき前記梱包材の状態にあるかを示す判定結果を取得することを特徴とする請求項6に記載のプログラム。
  8. 前記第3取得手段は、前記撮像手段によって撮像されている撮像画像データに前記梱包材の取り外し方を指示する指示画像データを合成したAR画像データを取得し、
    前記表示制御手段は、前記AR画像データに従って前記表示手段にAR画像を表示させることを特徴とする請求項2ないし6のいずれか1項に記載のプログラム。
  9. 前記表示制御手段は、前記撮像手段によって撮像されている撮像画像に前記機器本体に装着すべき装着部材の装着方法及び前記機器本体の調整方法を指示する指示画像を合成したAR画像を前記表示手段に表示させることを特徴とする請求項1ないし8のいずれか1項に記載のプログラム。
  10. ユーザによって操作可能な端末に、少なくとも前記撮像手段、前記表示手段、前記第1取得手段、前記第2取得手段、前記第3取得手段、及び前記表示制御手段が設けられ、
    前記端末と通信可能なサーバに、前記製品情報が格納され、
    前記第1取得手段は、前記製品を特定する特定情報を前記サーバに送信することによって前記製品情報を前記サーバから取得することを特徴とする請求項1ないし9のいずれか1項に記載のプログラム。
  11. 前記特定情報は、前記外包材に記載されたQRコードを読み取ることによって取得される情報であることを特徴とする請求項10に記載のプログラム。
  12. 撮像手段によって撮像された製品の撮像画像を表す撮像画像データに基づき前記撮像画像を表示可能な表示手段に表示させる表示制御手段と、
    前記製品の初期設置に関連する製品情報を格納した格納手段と、
    前記撮像画像データと前記格納手段から取得した製品情報とに基づき前記製品の設置状態の判定結果を取得する第2取得手段と、
    前記第2取得手段によって取得された前記設置状態に応じて、ユーザが前記製品に対して実施すべき設置作業の指示画像と前記撮像手段によって撮像されている撮像画像とを合成した合成画像を表す合成画像データを取得する第3取得手段と、
    前記表示制御手段は、合成画像データに基づき前記表示手段に前記合成画像を表示させることを特徴とする情報処理装置。
  13. 製品を撮像し、撮像画像データを取得する撮像工程と、
    前記撮像画像データに基づきを前記製品の初期設置に関連する製品情報を取得する第1取得工程と、
    前記撮像画像データと前記製品情報とに基づき前記製品の設置状態の判定結果を取得する第2取得工程と、
    判定された前記設置状態に応じて、ユーザが前記製品に対して実施すべき設置作業の指示画像と前記撮像画像とを合成した合成画像を表す合成画像データを取得する第3取得工程と、
    前記合成画像データに基づき前記表示手段に前記合成画像を表示させる表示制御工程と、を備えることを特徴とする情報処理方法。
  14. 撮像手段によって撮像された製品の撮像画像を表す撮像画像データに基づき前記撮像画像を表示手段に表示させる表示制御手段と、
    前記撮像画像データに基づき前記製品の初期設定に関連する製品情報を取得する第1取得手段と、
    前記製品の撮像画像データと前記製品情報とに基づき前記製品の設置状態の判定結果を取得する第2取得手段と、
    前記第2取得手段によって取得された前記設置状態に応じて、ユーザが前記製品に対して実施すべき設置作業の指示画像と前記撮像手段によって撮像された撮像画像とを合成した合成画像を表す合成画像データを取得するする第3取得手段と、を備え、
    前記表示制御手段は、前記合成画像データに基づいて前記表示手段に前記合成画像を表示させることを特徴とする情報処理システム。
JP2019199390A 2019-10-31 2019-10-31 プログラム、情報処理装置、情報処理方法、及び情報処理システム Pending JP2021072001A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019199390A JP2021072001A (ja) 2019-10-31 2019-10-31 プログラム、情報処理装置、情報処理方法、及び情報処理システム
US17/079,215 US11743415B2 (en) 2019-10-31 2020-10-23 Information processing method, information processing apparatus, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199390A JP2021072001A (ja) 2019-10-31 2019-10-31 プログラム、情報処理装置、情報処理方法、及び情報処理システム

Publications (1)

Publication Number Publication Date
JP2021072001A true JP2021072001A (ja) 2021-05-06

Family

ID=75688710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199390A Pending JP2021072001A (ja) 2019-10-31 2019-10-31 プログラム、情報処理装置、情報処理方法、及び情報処理システム

Country Status (2)

Country Link
US (1) US11743415B2 (ja)
JP (1) JP2021072001A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114079705B (zh) * 2020-08-21 2023-10-03 精工爱普生株式会社 图像处理装置的设定方法、记录介质以及图像处理系统
US20220083776A1 (en) * 2020-09-11 2022-03-17 Schlage Lock Company Llc Technologies for leveraging machine learning for customized installation of access control hardware
JP2023104545A (ja) * 2022-01-18 2023-07-28 セイコーエプソン株式会社 印刷制御装置、印刷制御方法、立体物印刷装置、およびコンピュータープログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007016252A2 (en) * 2005-07-27 2007-02-08 S.M.A.R.T. Link Medical, Inc. Collections of linked databases and systems and methods for communicating about updates thereto
US20120249588A1 (en) * 2011-03-22 2012-10-04 Panduit Corp. Augmented Reality Data Center Visualization
JP6262127B2 (ja) * 2011-05-23 2018-01-17 レゴ エー/エス 拡張現実向けの玩具構築システム
US9015245B1 (en) * 2011-07-20 2015-04-21 Google Inc. Experience sharing with commenting
US9235819B2 (en) 2011-11-04 2016-01-12 Canon Kabushiki Kaisha Printing system, image forming apparatus, and method
US9338622B2 (en) * 2012-10-04 2016-05-10 Bernt Erik Bjontegard Contextually intelligent communication systems and processes
US9401849B2 (en) * 2013-07-02 2016-07-26 Hitachi, Ltd. Network construction support system and method
US20150130834A1 (en) * 2013-11-11 2015-05-14 International Business Machines Corporation Interactive augmented reality for memory dimm installation
US11257143B2 (en) * 2014-12-30 2022-02-22 Hand Held Products, Inc. Method and device for simulating a virtual out-of-box experience of a packaged product
JP6572600B2 (ja) * 2015-04-09 2019-09-11 セイコーエプソン株式会社 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム
WO2016171894A1 (en) * 2015-04-20 2016-10-27 NSF International Computer-implemented methods for remotely interacting with performance of food quality and workplace safety tasks using a head mounted display
US9972133B2 (en) * 2015-04-24 2018-05-15 Jpw Industries Inc. Wearable display for use with tool
US20180150791A1 (en) * 2016-11-29 2018-05-31 Wal-Mart Stores, Inc. Augmented reality-assisted modular set-up and product stocking systems and methods
US11348475B2 (en) * 2016-12-09 2022-05-31 The Boeing Company System and method for interactive cognitive task assistance
CA3005051A1 (en) * 2017-05-16 2018-11-16 Michael J. Schuster Augmented reality task identification and assistance in construction, remodeling, and manufacturing
US10650609B2 (en) * 2018-02-23 2020-05-12 Sap Se Virtual prototyping and assembly validation
KR102605342B1 (ko) * 2019-08-06 2023-11-22 엘지전자 주식회사 오브젝트 인식 기반의 정보 제공 방법 및 장치와 이를 위한 매핑 장치

Also Published As

Publication number Publication date
US20210133450A1 (en) 2021-05-06
US11743415B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
JP2021072001A (ja) プログラム、情報処理装置、情報処理方法、及び情報処理システム
CN102694937A (zh) 图像显示装置、移动终端和图像显示方法
JP2013140563A (ja) 印刷システム、画像形成装置及び方法
JP2006514493A (ja) 変更要求フォームの注釈
US20150365542A1 (en) Mobile device, image forming apparatus, and method for providing manual
CN109495669B (zh) 信息处理装置以及存储程序的计算机可读介质
US20200389564A1 (en) System and method for augmented reality device maintenance
US10356355B2 (en) Display device and method for controlling display device
CN111149067A (zh) 经由基准检测在工作空间中的机器人定位
WO2019150529A1 (ja) 携帯端末装置及び情報表示方法
JP2018034441A (ja) 情報処理装置、制御方法、およびプログラム
JP2015191473A (ja) 画像形成装置管理システムおよび画像形成装置
EP2725461B1 (en) Information management apparatus and storage medium storing information management program
JP2017068361A (ja) 携帯端末装置および保守システム
CN111652248B (zh) 一种柔性布料的定位方法和装置
US11269564B1 (en) Processing-independent tablet interface for printing devices
US20220012921A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6292140B2 (ja) 画像処理システム
CN115552913A (zh) 信息处理方法、信息处理装置、程序及信息处理系统
US10708445B2 (en) Information processing apparatus and non-transitory computer readable medium
JP4712629B2 (ja) 設備仕様入力装置
JP7333759B2 (ja) 画像データ生成システム、画像データ生成方法及びコンピュータプログラム
JP6699334B2 (ja) プログラム、方法および情報処理装置
JP7358948B2 (ja) 情報処理装置、情報処理システム、及びプログラム
WO2022050604A1 (ko) 전자 장치 및 전자 장치에서 인 에어 제스처를 처리하는 방법