JP7342137B2 - 投射制御装置及び投射システム - Google Patents

投射制御装置及び投射システム Download PDF

Info

Publication number
JP7342137B2
JP7342137B2 JP2021542716A JP2021542716A JP7342137B2 JP 7342137 B2 JP7342137 B2 JP 7342137B2 JP 2021542716 A JP2021542716 A JP 2021542716A JP 2021542716 A JP2021542716 A JP 2021542716A JP 7342137 B2 JP7342137 B2 JP 7342137B2
Authority
JP
Japan
Prior art keywords
projection
grasped
captured image
unit
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021542716A
Other languages
English (en)
Other versions
JPWO2021039395A1 (ja
Inventor
健介 上田
信貴 松嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2021039395A1 publication Critical patent/JPWO2021039395A1/ja
Application granted granted Critical
Publication of JP7342137B2 publication Critical patent/JP7342137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、投射制御装置及び投射システムに関する。
特許文献1は、スクリーンの近くに位置する障害物への画像の投射を禁止可能な技術を開示する。この技術では、スクリーンからの距離が閾値(30cm)以上である物体が、障害物として検出される。
特開2013-33206号公報
特許文献1に記載の技術では、スクリーンからの距離が閾値未満である物体には、画像が投射される。このため、例えば、ユーザが手に持っている本等の物体とスクリーンとの距離が閾値未満である場合、当該物体に画像が投射され、当該物体の視認性に問題が生じる。
本発明の目的は、ユーザが手に持っている物体の視認性について投射画像に起因する問題が生じることを抑制可能な技術を提供することである。
本発明の一態様に係る投射制御装置は、手によって持たれている物体である被把持体が、投射部によって投射される投射画像の投射先を撮像することによって生成される撮像データが表す撮像画像に写っているか否かを判定する判定部と、前記被把持体が前記撮像画像に写っていると前記判定部が判定する場合、前記投射先に含まれる前記被把持体への前記投射画像の投射を禁止する投射制御部と、を含む。
本発明の一態様によれば、ユーザが手に持っている物体の視認性について投射画像に起因する問題が生じることを抑制できる。
第1実施形態に係る投射システム1を示す図である。 判定部310の一例を示す図である。 投射システム1の動作の一例を説明するための図である。 仮想オブジェクトV1の投射例を示す図である。 仮想オブジェクトV1の投射を抑制する例を示す図である。 第1変形例を示す図である。 第4変形例を説明するための図である。
<A.第1実施形態>
<A1.投射システム1>
図1は、第1実施形態に係る投射システム1を示す図である。投射システム1は、投射装置10、撮像装置20及び投射制御装置30を含む。本明細書において、投射装置、撮像装置、投射制御装置、後述する測定装置、後述する記憶装置、後述する処理装置、後述する周辺装置、後述する演算装置、及び、後述する中央処理装置における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読み替えられてもよい。
投射装置10は、例えば、プロジェクタである。投射装置10は、投射制御装置30から画像情報を受信する。投射装置10は、画像情報に基づく投射画像を投射する。投射装置10と投射制御装置30との通信は、有線通信でもよいし、無線通信でもよい。投射装置10は、投射部の一例である。
投射装置10は、拡張現実(Augmented Reality)を実現する仮想オブジェクトV1の画像を含む投射画像を、投射面Pにおける領域R1に投射する。仮想オブジェクトV1の画像は、領域R1の一部である投射領域R2に投射される。投射面Pは、例えばテーブルである。投射面Pは、テーブルに限らず、例えば、机、床、壁又はスクリーンでもよい。
以下、仮想オブジェクトV1の画像(仮想オブジェクトV1の投射画像)を、単に「仮想オブジェクトV1」と称する。図1では、仮想オブジェクトV1の一例として、時計の画像が示されている。
仮想オブジェクトV1は、時計の画像に限らない。例えば、仮想オブジェクトV1は、時計とは異なる物体の画像、又は、文字の画像でもよい。1つの仮想オブジェクトV1の代わりに、2つ以上の仮想オブジェクトV1が用いられてもよい。投射装置10が領域R1に投射する画像のうち仮想オブジェクトV1が占める割合は、図1に示す割合に限らず、図1に示す割合よりも高くても低くてもよい。投射装置10が投射する投射画像は、仮想オブジェクトV1を含む画像に限らない。例えば、投射装置10が投射する投射画像は、拡張現実を実現しない画像、例えば、映画の画像でもよい。
撮像装置20は、投射画像の投射先(例えば、領域R1)を撮像するカメラである。撮像装置20は、撮像部の一例である。撮像装置20は、レンズ等の光学系と、光学系によって集光される光を電気信号に変換する撮像素子と、を含む。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサである。撮像素子は、CCDイメージセンサに限らず、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサでもよい。撮像装置20は、投射装置10に設けられてもよく、投射装置10から独立した構成でもよい。
撮像装置20は、投射画像の投射先(例えば、投射領域R2を含む領域R1)を撮像することによって撮像データを生成する。すなわち、撮像装置20は、例えば投射領域R2を撮像する。なお、「投射領域R2を撮像する」とは、「少なくとも投射領域R2を撮像する」ことを意味する。撮像装置20は、撮像データを投射制御装置30に送信する。撮像装置20と投射制御装置30との通信は、有線通信でもよいし、無線通信でもよい。
投射装置10から投射領域R2に向けて投射される仮想オブジェクトV1の少なくとも一部を遮る物体が存在する場合、撮像データが示す撮像画像に、当該物体が写っている可能性が高い。
投射制御装置30は、撮像データに基づいて投射装置10を制御する。投射制御装置30は、記憶装置300及び処理装置302を含む。投射制御装置30の各要素は、1又は2以上のバスによって相互に接続される。投射制御装置30の各要素は、1又は2以上の機器によって構成される。
記憶装置300は、処理装置302が読み取り可能な記録媒体である。記憶装置300は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の記録媒体の少なくとも1つによって構成される。記憶装置300は、処理装置302によって実行される制御プログラムを含む複数のプログラム、及び、処理装置302によって使用される各種のデータ等を記憶する。
処理装置302は、投射制御装置30を制御する1又は2以上のプロセッサを含む。処理装置302は、例えば、1又は2以上のチップによって構成される。一例を挙げると、処理装置302は、周辺装置と通信するためのインタフェース、及び、中央処理装置(CPU:Central Processing Unit)によって構成される。中央処理装置は、演算装置及びレジスタ等を含む。処理装置302の機能の一部又は全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。処理装置302は、各種の処理を並列的又は逐次的に実行する。
処理装置302は、記憶装置300から制御プログラムを読み取り、当該制御プログラムを実行することによって、判定部310及び投射制御部320として機能する。判定部310及び投射制御部320の各々は、処理装置302の機能ブロックの一例である。判定部310及び投射制御部320の各々は、DSP、ASIC、PLD又はFPGA等の回路によって構成されてもよい。
判定部310は、手によって持たれている物体である被把持体が撮像画像に写っているか否かを判定する。手とは、人間の手を意味する。判定部310は、出力部311、認識部312及び物体判定部313を含む。出力部311、認識部312及び物体判定部313の各々は、処理装置302の機能ブロックの一例である。出力部311、認識部312及び物体判定部313の各々は、DSP、ASIC、PLD又はFPGA等の回路によって構成されてもよい。
出力部311は、物体を持っている手である把持手が撮像画像に写っているか否かの判定結果である第1判定結果を、認識部312及び物体判定部313に出力する。
把持手が撮像画像に写っていると判定される場合、出力部311は、把持手が撮像画像に写っていることを示す第1判定結果を、認識部312及び物体判定部313に出力する。一方、把持手が撮像画像に写っていないと判定される場合、出力部311は、把持手が撮像画像に写っていないことを示す第1判定結果を、認識部312及び物体判定部313に出力する。
なお、把持手が撮像画像に写っているか否かの判定処理は、出力部311によって実行されてもよいし、出力部311とは異なる要素(例えば、学習済みモデル)によって実行されてもよい。学習済みモデルについては後述する。
把持手が撮像画像に写っているか否かの判定処理を出力部311が実行する例としては、出力部311が、把持手が撮像画像に写っているか否かの判定処理をルールベースによって実行する例が挙げられる。
把持手が撮像画像に写っている場合、出力部311は、撮像画像において把持手が写っている領域の推定結果である第1推定結果を、物体判定部313及び投射制御部320に出力する。
なお、出力部311は、第1推定結果を、出力部311とは異なる要素(例えば、学習済みモデル)から取得する。出力部311は、第1推定結果を生成する処理をルールベースによって実行してもよい。
出力部311は、物体を持っていない手である非把持手が撮像画像に写っているか否かの判定結果である第2判定結果を、出力部311とは異なる要素(例えば、学習済みモデル)から取得する。なお、出力部311は、非把持手が撮像画像に写っているか否かの判定処理をルールベースで実行してもよい。
非把持手が撮像画像に写っている場合、出力部311は、撮像画像において非把持手が写っている領域の推定結果である第2推定結果を、物体判定部313および投射制御部320に出力する。
なお、出力部311は、第2推定結果を、出力部311とは異なる要素(例えば、学習済みモデル)から取得する。出力部311は、第2推定結果を生成する処理をルールベースによって実行してもよい。
出力部311は、人体が撮像画像に写っているか否かの判定結果である第3判定結果を、出力部311とは異なる要素(例えば、学習済みモデル)から取得する。なお、出力部311は、人体が撮像画像に写っているか否かの判定処理をルールベースによって実行してもよい。人体は、人間の体のうち手を含まない部分を意味してもよい。以下、人体は、人間の体のうち手を含まない部分を意味するとする。
人体が撮像画像に写っている場合、出力部311は、撮像画像において人体が写っている領域の推定結果である第3推定結果を、物体判定部313および投射制御部320に出力する。
なお、出力部311は、第3推定結果を、出力部311とは異なる要素(例えば、学習済みモデル)から取得する。出力部311は、第3推定結果を生成する処理をルールベースによって実行してもよい。
認識部312は、把持手が撮像画像に写っていることを第1判定結果が示す場合、撮像データを用いて、手とは異なる物体である1以上の認識対象物を認識する。1以上の認識対象物は、手とは異なる複数種類の物体の各々である。例えば、認識対象物は、本、スマートフォン、ペン、消しゴム、カレンダー等である。なお、認識対象物は、予め定められている。
認識部312は、出力部311とは異なる要素(例えば、学習済みモデル)を用いて、認識対象物を認識する。なお、認識部312は、画像認識手法を用いて認識対象物を認識してもよい。認識対象物は、被把持体の候補である。
認識部312は、撮像画像において1以上の認識対象物が写っている領域の推定結果である第4推定結果を、物体判定部313に出力する。
なお、認識部312は、第4推定結果を、認識部312とは異なる要素(例えば、学習済みモデル)から取得する。認識部312は、第4推定結果を生成する処理をルールベースによって実行してもよい。
物体判定部313は、把持手が撮像画像に写っていることを第1判定結果が示す場合、認識部312によって認識された1以上の認識対象物の中で把持手までの距離が最も短い物体を、被把持体として判定する。
認識対象物と把持手との距離は、例えば、撮像画像における、認識対象物と把持手との距離である。撮像画像における、認識対象物と把持手との距離は、例えば、撮像画像における認識対象物の重心位置と、撮像画像における把持手の重心位置と、の距離である。
物体判定部313は、撮像画像において把持手が写っている領域を示す第1推定結果を用いて、撮像画像における把持手の重心位置を特定する。また、物体判定部313は、撮像画像において認識対象物が写っている領域の推定結果である第4推定結果を用いて、撮像画像における認識対象物の重心位置を特定する。なお、撮像画像における、認識対象物と把持手との距離は、撮像画像における認識対象物の任意の一点と、撮像画像における把持手の任意の一点と、の距離でもよい。
物体判定部313は、被把持体を判定すると、被把持体が撮像画像に写っていると判定する。物体判定部313は、把持手が撮像画像に写っていることを第1判定結果が示す場合に、被把持体が撮像画像に写っていると判定してもよい。物体判定部313は、把持手が撮像画像に写っていないことを第1判定結果が示す場合、被把持体が撮像画像に写っていないと判定する。物体判定部313は、撮像画像において被把持体が写っている領域の推定結果である第5推定結果を投射制御部320に出力する。
投射制御部320は、投射装置10への画像情報の提供を制御する。例えば、投射制御部320は、被把持体が撮像画像に写っていると判定部310が判定する場合、投射先に含まれる被把持体への仮想オブジェクトV1の投射を禁止する。
一例を挙げると、仮想オブジェクトV1が投射される領域が、被把持体が存在する領域の少なくとも一部と重なる場合、投射制御部320は、投射装置10への画像情報の提供を停止する。このため、被把持体への仮想オブジェクトV1の投射が抑制される。
なお、仮想オブジェクトV1が投射される領域が、被把持体が存在する領域の一部とも重ならない場合、投射制御部320は、仮想オブジェクトV1が投射される領域が、被把持体が存在する領域の一部とも重ならない状況を維持する。このため、被把持体への仮想オブジェクトV1の投射が抑制される。
なお、投射制御部320は、仮想オブジェクトV1が投射される領域を、投射画像の元になる画像情報を用いて特定する。投射制御部320は、撮像画像において被把持体が写っている領域の推定結果である第5推定結果を用いて、被把持体が存在する領域を特定する。
<A2.学習済みモデルを有する判定部310>
図2は、出力部311が使用する学習済みモデルと、認識部312が使用する学習済みモデルとを、判定部310が含む構成の一例を示す図である。
なお、判定部310は、図2に示す構成に限定されない。例えば、図2に示す学習済みモデルが、判定部310とは異なる要素、さらに言えば、投射システム1に含まれない要素に存在してもよい。
しかし、図2に示す学習済みモデルが、投射システム1に含まれる構成、例えば、判定部310に含まれる場合、ユーザの個人情報として扱われる可能性がある撮像データが、投射システム1の外部に出ない。このため、ユーザの個人情報を保護することが可能である。
図2に例示される判定部310は、出力部311、認識部312及び物体判定部313に加えて、学習済みモデルM1~M3、セグメンテーション部SG1、学習済みモデルT1~TN、及び、セグメンテーション部SG2を含む。Nは2以上の整数である。学習済むモデルM1~M3、セグメンテーション部SG1、学習済みモデルT1~TN、及び、セグメンテーション部SG2の各々は、処理装置302の機能ブロックの一例である。
<A3.学習済みモデルM1>
学習済みモデルM1は、画像データと、画像データによって示される画像に把持手が写っているか否かを示す判定データと、の相関関係を学習した学習済みモデルである。学習済みモデルM1は、複数の教師データTM1を利用した機械学習によって特定される複数の係数K1によって規定される。
教師データTM1は、画像データと、当該画像データが示す画像に把持手が写っているか否かを示す判定データ(ラベル)と、の組合せである。教師データTM1の一例は、把持手が写っている画像を示す画像データと、画像データが示す画像に把持手が写っていることを示す判定データと、の組合せである。教師データTM1の他の例は、把持手が写っていない画像を示す画像データと、画像データが示す画像に把持手が写っていないことを示す判定データと、の組合せである。
学習済みモデルM1としては、例えば、ニューラルネットワーク、典型的には、ディープニューラルネットワークが利用される。学習済みモデルM1は、出力部311から入力される撮像データに基づいて、撮像データによって示される撮像画像に把持手が写っているか否かを示す出力データを生成する。
次に、学習済みモデルM1について観点を変えて説明する。
学習済みモデルM1は、処理装置(コンピュータの例示)302によって実現される統計的モデル(例えば、ニューラルネットワーク)、さらに言えば、機能ブロックであり、入力Aに応じた出力Bを生成する。
学習済みモデルM1は、入力Aから出力Bを特定する演算を処理装置302に実行させるプログラム(例えば、人工知能ソフトウェアを構成するプログラムモジュール)と、当該演算に適用される複数の係数K1と、の組合せによって、処理装置302において実現される。当該プログラムと複数の係数K1とは、記憶装置300に記憶される。
複数の係数K1は、入力Aと出力Bとを対応させた複数の教師データTM1を利用した事前の機械学習(深層学習)によって最適化されている。すなわち、学習済みモデルM1は、上述の通り、入力Aと出力Bとの相関関係を学習した統計的モデルである。
処理装置302は、複数の係数K1と所定の応答関数とを適用した演算を未知の入力Aに対して実行することによって、複数の教師データTM1から抽出される傾向(入力Aと出力Bとの相関関係)に基づいて、入力Aに対して妥当な出力Bを生成する。
学習済みモデルM1は、入力Aとして「撮像データ」を用い、出力Bとして「撮像データによって示される撮像画像に把持手が写っているか否かを示すデータ」を用いる。
なお、学習済みモデルM1は、例えば、Tensor Processing Unit(テンソルプロセッシングユニット)及びNeural Engine(ニューラルエンジン)等のニューラルネットワーク用のプロセッサによって実現されてもよい。
出力部311は、学習済みモデルM1に撮像データを入力する。出力部311は、学習済みモデルM1の出力データを受け取る。出力部311は、学習済みモデルM1の出力データを第1判定結果として使用する。
<A4.学習済みモデルM2>
学習済みモデルM2は、画像データと、画像データによって示される画像に非把持手が写っているか否かを示す判定データと、の相関関係を学習した学習済みモデルである。学習済みモデルM2は、複数の教師データTM2を利用した機械学習によって特定される複数の係数K2によって規定される。教師データTM2は、画像データと、当該画像データが示す画像に非把持手が写っているか否かを示す判定データ(ラベル)と、の組合せである。
学習済みモデルM2と学習済みモデルM1との相違点は、学習済みモデルM2が教師データTM2を用いる点と、学習済みモデルM2が、入力Aとして「撮像データ」を用い、出力Bとして「撮像画像に非把持手が写っているか否かを示すデータ」を用いる点である。
出力部311は、学習済みモデルM2に撮像データを入力する。出力部311は、学習済みモデルM2の出力データを、第2判定結果として受け取る。
<A5.学習済みモデルM3>
学習済みモデルM3は、画像データと、画像データによって示される画像に人体が写っているか否かを示す判定結果と、の相関関係を学習した学習済みモデルである。学習済みモデルM3は、複数の教師データTM3を利用した機械学習によって特定される複数の係数K3によって規定される。教師データTM3は、画像データと、当該画像データが示す画像に人体が写っているか否かを示す判定結果(ラベル)と、の組合せである。
学習済みモデルM3と学習済みモデルM1との相違点は、学習済みモデルM3が教師データTM3を用いる点と、学習済みモデルM3が、入力Aとして「撮像データ」を用い、出力Bとして「撮像画像に人体が写っているか否かを示すデータ」を用いる点である。
出力部311は、学習済みモデルM3に撮像データを入力する。出力部311は、学習済みモデルM3の出力データを、第3判定結果として受け取る。
<A6.セグメンテーション部SG1>
セグメンテーション部SG1は、セマンティックセグメンテーション等のセグメンテーション手法を用いて、撮像画像において把持手が写っている領域と、撮像画像において非把持手が写っている領域と、撮像画像において人体が写っている領域と、を推定する。
セマンティックセグメンテーション手法は、例えば、学習済みモデル(例えば、ニューラルネットワーク)によって実現される。セマンティックセグメンテーション手法を実現する学習済みモデルは、画像データを入力として用い、検出対象の物体(例えば、把持手)の識別情報と、画像データが示す画像において検出対象の物体が存在する領域を示すマスク領域と、の組合せを、出力として用いる。この場合、教師データは、画像データとラベルとの組合せである。当該ラベルは、検出対象の物体が存在する領域を示すマスク領域と、検出対象の物体の識別情報と、のペアである。
セグメンテーション部SG1は、把持手を検出対象の物体として用いる学習済みモデルと、非把持手を検出対象の物体として用いる学習済みモデルと、人体を検出対象の物体として用いる学習済みモデルと、を有する。
出力部311は、セグメンテーション部SG1の学習済みモデルに撮像データを入力する。出力部311は、セグメンテーション部SG1の学習済みモデルの出力データを受け取る。出力部311は、把持手を検出対象の物体として用いる学習済みモデルの出力データを、第1推定結果として受け取る。出力部311は、非把持手を検出対象の物体として用いる学習済みモデルの出力データを、第2推定結果として受け取る。出力部311は、人体を検出対象の物体として用いる学習済みモデルの出力データを、第3推定結果として受け取る。
<A7.学習済みモデルT1~TN>
以下、複数の学習済みモデルT1~TNのうち任意の学習済みモデルを「学習済みモデルTm」と称する。
<A8.学習済みモデルTm>
学習済みモデルTmは、画像データと、画像データによって示される画像に手とは異なる物体である認識対象体が写っているか否かを示す判定データと、の相関関係を学習した学習済みモデルである。
学習済みモデルTmにおける認識対象物は、学習済みモデルT1~TNのうち学習済みモデルTm以外の学習済みモデルにおける認識対象物と異なる。例えば、学習済みモデルT1~TNが、学習済みモデルT1及びT2によって構成される場合、学習済みモデルT1における認識対象物は、学習済みモデルT2における認識対象物と異なる。一例を挙げると、学習済みモデルT1における認識対象物が「本」であり、学習済みモデルT2での認識対象物が「スマートフォン」である。
学習済みモデルTmは、複数の教師データTTmを利用した機械学習によって特定される複数の係数Kによって規定される。教師データTTmは、画像データと、当該画像データが示す画像に学習済みモデルTmにおける認識対象物が写っているか否かを示す判定データ(ラベル)と、の組合せである。
学習済みモデルTmと学習済みモデルM1との相違点は、学習済みモデルTmが教師データTTmを用いる点と、学習済みモデルTmが、入力Aとして「撮像データ」を用い、出力Bとして「学習済みモデルTmにおける認識対象物が撮像画像に写っているか否かを示すデータ」を用いる点である。
認識部312は、学習済みモデルTmに撮像データを入力する。認識部312は、学習済みモデルTmの出力データを受け取る。認識部312は、学習済みモデルTmの出力データが、学習済みモデルTmにおける認識対象物が撮像画像に写っていることを示す場合、当該認識対象物を認識する。一方、認識部312は、学習済みモデルTmの出力データが、学習済みモデルTmにおける認識対象物が撮像画像に写っていないことを示す場合、当該認識対象物を認識しない。
<A9.セグメンテーション部SG2>
セグメンテーション部SG2は、セマンティックセグメンテーション等のセグメンテーション手法を用いて、認識対象物の種類ごとに、撮像画像において認識対象物が写っている領域を推定する。認識対象物の種類とは、例えば、「本」、「スマートフォン」である。セグメンテーション部SG2は、セマンティックセグメンテーション手法を実現する学習済みモデルを、認識対象物の種類ごとに有する。
認識部312は、セグメンテーション部SG2の学習済みモデルに撮像データを入力する。認識部312は、セグメンテーション部SG2の学習済みモデルの出力データを、第4推定結果として受け取る。
<A10.投射システム1の動作>
図3は、投射システム1の動作の一例を説明するための図である。図3に示す動作の開始時点において、投射制御部320は、画像情報を投射装置10に提供し、投射装置10は、画像情報に基づいて、仮想オブジェクトV1を投射領域R2に投射しているとする。また、図2に示す判定部310が用いられるとする。
撮像装置20は、領域R1を撮像することによって、撮像データを生成する(ステップS100)。撮像装置20は、撮像データを、処理装置302、具体的には出力部311及び認識部312に送信する。
出力部311は、撮像データを学習済みモデルM3に入力する。学習済みモデルM3は、撮像データに基づいて、人体が撮像画像に写っているか否かを判定する(ステップS102)。学習済みモデルM3は、人体が撮像画像に写っているか否かを示す出力データを、出力部311に提供する。
続いて、出力部311は、撮像データを学習済みモデルM2に入力する。学習済みモデルM2は、撮像データに基づいて、物体を持っていない手である非把持手が撮像画像に写っているか否かを判定する(ステップS104)。学習済みモデルM2は、非把持手が撮像画像に写っているか否かを示す出力データを、出力部311に提供する。
続いて、出力部311は、撮像データを学習済みモデルM1に入力する。学習済みモデルM1は、撮像データに基づいて、物を持っている手である把持手が撮像画像に写っているか否かを判定する(ステップS106)。学習済みモデルM1は、把持手が撮像画像に写っているか否かを示す出力データを、出力部311に提供する。
なお、ステップS102~S106の順序は適宜変更可能である。さらに言えば、ステップS102は、後述のステップS108よりも前に実行されていればよい。ステップS104は、後述のステップS112よりも前に実行されていればよい。ステップS106は、後述のステップS116よりも前に実行されていればよい。
学習済みモデルM3の出力データが、人体が撮像画像に写っていることを示す場合(ステップS108:YES)、出力部311は、セグメンテーション部SG1(具体的には、人体を検出対象の物体として用いる学習済みモデル)に撮像データを入力する。セグメンテーション部SG1は、撮像データに基づいて、撮像画像において人体が写っている領域を推定する(ステップS110)。セグメンテーション部SG1は、撮像画像において人体が写っている領域を示す第3推定結果を、出力部311に提供する。出力部311は、第3推定結果を投射制御部320に出力する。
なお、学習済みモデルM3の出力データが、人体が撮像画像に写っていないことを示す場合(ステップS108:NO)、ステップS110はスキップされる。よって、人体が撮像画像に写っていない場合に撮像画像において人体が写っている領域を推定するという無駄な処理が発生することを回避可能である。
続いて、学習済みモデルM2の出力データが、非把持手が撮像画像に写っていることを示す場合(ステップS112:YES)、出力部311は、セグメンテーション部SG1(具体的には、非把持手を検出対象の物体として用いる学習済みモデル)に撮像データを入力する。セグメンテーション部SG1は、撮像データに基づいて、撮像画像において非把持手が写っている領域を推定する(ステップS114)。セグメンテーション部SG1は、撮像画像において非把持手が写っている領域を示す第2推定結果を、出力部311に提供する。出力部311は、第2推定結果を投射制御部320に出力する。
なお、学習済みモデルM2の出力データが、非把持手が撮像画像に写っていないことを示す場合(ステップS112:NO)、ステップS114はスキップされる。よって、非把持手が撮像画像に写っていない場合に撮像画像において非把持手が写っている領域を推定するという無駄な処理が発生することを回避可能である。
続いて、学習済みモデルM1の出力データが、把持手が撮像画像に写っていることを示す場合(ステップS116:YES)、出力部311は、セグメンテーション部SG1(具体的には、把持手を検出対象の物体として用いる学習済みモデル)に撮像データを入力する。セグメンテーション部SG1は、撮像データに基づいて、撮像画像において把持手が写っている領域を推定する(ステップS118)。セグメンテーション部SG1は、撮像画像において把持手が写っている領域を示す第1推定結果を、出力部311に提供する。出力部311は、第1推定結果を物体判定部313及び投射制御部320に出力する。
続いて、認識部312は、画像データを用いて、手とは異なる物である認識対象物を認識する(ステップS120)。
ステップS120では、認識部312は、まず、学習済みモデルT1~TNの各々に撮像データを入力する。学習済みモデルT1~TNの各々は、撮像データに基づいて、認識対象物が撮像画像に写っているか否かを判定する。学習済みモデルT1~TNの各々は、認識対象物が撮像画像に写っているか否かを示す出力データを、認識部312に提供する。認識部312は、学習済みモデルT1~TNの出力データに基づいて、認識対象物を認識する。例えば、学習済みモデルT1~TNの出力データによって、本とスマートフォンが撮像画像に写っていることが特定される場合、認識部312は、認識対象物として、本とスマートフォンとを認識する。本とスマートフォンは、複数の認識対象物の一例である。複数の認識対象物は、本とスマートフォンに限らず、適宜変更可能である。
以下、認識部312は、認識対象物として本とスマートフォンとを認識したとする。この場合、本とスマートフォンのいずれかが、手によって持たれている物体である被把持体に該当する。
続いて、認識部312は、セグメンテーション部SG2の学習済みモデルのうち、認識部312が認識した認識対象物に対応する学習済みモデルに撮像データを入力する。具体的には、認識部312は、セグメンテーション部SG2の学習済みモデルのうち、本に対応する学習済みモデルと、スマートフォンに対応する学習済みモデルと、の各々に、撮像データを入力する。
セグメンテーション部SG2は、撮像データに基づいて、撮像画像において認識対象物(本とスマートフォン)が写っている領域を推定する(ステップS122)。セグメンテーション部SG2は、推定結果を示す出力データを認識部312に提供する。認識部312は、セグメンテーション部SG2の出力データを、第4推定結果として受け取る。認識部312は、第4推定結果を物体判定部313に出力する。
続いて、物体判定部313は、認識対象物のうち、把持手までの距離が最も短い物体を、被把持体として判定する(ステップS124)。例えば、物体判定部313は、複数の認識対象物のうち、撮像画像において把持手までの距離が最も短い認識対象物を、被把持体として判定する。
一例を挙げると、物体判定部313は、まず、第1推定結果を用いて、撮像画像における把持手の領域を特定する。さらに、物体判定部313は、第4推定結果を用いて、撮像画像における各認識対象物の領域を特定する。続いて、物体判定部313は、撮像画像における把持手の領域に基づいて、撮像画像における把持手の重心位置を特定する。さらに 物体判定部313は、撮像画像における各認識対象物の領域に基づいて、撮像画像における各認識対象物の重心位置を特定する。続いて、物体判定部313は、複数の認識対象物のうち、撮像画像における認識対象物の重心位置と、撮像画像における把持手の重心位置と、の距離が最も短い認識対象物を、被把持体として判定する。
続いて、物体判定部313は、被把持体が撮像画像に写っていると判定する(ステップS126)。なお、把持手が撮像画像に写っていない場合(ステップS116:NO)、物体判定部313は、被把持体が撮像画像に写っていないと判定する(ステップS128)。
物体判定部313は、被把持体が撮像画像に写っていると判定すると、撮像画像において被把持体が写っている領域を推定する(ステップS130)。例えば、物体判定部313は、被把持体として判定された認識対象物について第4推定結果が示す領域を、撮像画像において被把持体が写っている領域として用いる。物体判定部313は、撮像画像において被把持体が写っている領域を示すデータを第5推定結果として、投射制御部320に出力する。
なお、ステップS116において把持手が撮像画像に写っていない場合(ステップS116:NO)、ステップS118~S126及びステップS130は実行されない。よって、把持手が撮像画像に写っていない場合に、撮像画像において把持手が写っている領域を推定するという無駄な処理、及び、撮像画像において被把持体が写っている領域を推定するという無駄な処理が発生することを回避可能である。
続いて、投射制御部320は、仮想オブジェクトV1の投射領域R2が、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、及び、被把持体が存在する領域の少なくとも1つと重なるか否かを判断する(ステップS132)。
図1に示すように、投射装置10は、投射制御部320から提供される画像情報に従って、仮想オブジェクトV1を含む画像を領域R1に投射する。撮像装置20は、領域R1を撮像することによって、撮像画像を示す撮像データを生成する。このため、画像情報は、領域R1に投射される画像を示し、撮像データは、領域R1を撮像することによって生成される撮像画像を示す。よって、画像情報が示す画像と、撮像データが示す撮像画像とは、互いに領域R1の状態を示す。
このため、投射制御部320は、仮想オブジェクトV1の投射領域R2として、画像情報が示す画像における仮想オブジェクトV1の領域を用い、把持手が存在する領域、非把持手が存在する領域、人体が存在する領域、被把持体が存在する領域として、それぞれ、第1推定結果、第2推定結果、第3推定結果、第5推定結果が示す領域を用いる。
投射制御部320は、第1推定結果、第2推定結果、第3推定結果及び第5推定結果のうち少なくともいずれか1つを受け取っていない場合、受け取っていない推定結果に示される領域の大きさは無い(ゼロ)と判定する。
仮想オブジェクトV1の投射領域R2が、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、及び、被把持体が存在する領域の少なくとも1つと重なる場合、投射制御部320は、投射装置10への画像情報の提供を停止する。すなわち、投射制御部320は、仮想オブジェクトV1の投射を禁止する(ステップS134)。
一方、仮想オブジェクトV1の投射領域R2が、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、及び、被把持体が存在する領域のいずれとも重ならない場合、投射制御部320は、投射装置10への画像情報の提供を継続する。このため、投射装置10は、仮想オブジェクトV1を投射領域R2に投射する(ステップS136)。
このため、図4に示すように仮想オブジェクトV1が投射されている状況において、図5に示すように、投射領域R2に、手F1によって持たれている本F2が現れると、仮想オブジェクトV1の投射が禁止される。
なお、ステップS102とステップS108とステップS110は、ステップS100とステップS132との間に実行されれば、図3に示す順序とは異なる順序で実行されてもよい。ステップS104とステップS112とステップS114は、ステップS100とステップS132との間に実行されれば、図3に示す順序とは異なる順序で実行されてもよい。ステップS106とステップS116~S130は、ステップS100とステップS132との間に実行されれば、図3に示す順序とは異なる順序で実行されてもよい。
<A11.第1実施形態のまとめ>
第1実施形態においては、判定部310は、被把持体が撮像画像に写っているか否かを判定する。投射制御部320は、被把持体が撮像画像に写っていると判定部310が判定する場合、投射先に含まれる被把持体への仮想オブジェクトV1の投射を禁止する。
このため、ユーザが手に持っている本等の物体の視認性において投射画像に起因する問題が生じることを抑制できる。例えば、ユーザがスマートフォンを手に持っている場合、スマートフォンに仮想オブジェクトV1が投射されない。このため、スマートフォンの画面の視認性が仮想オブジェクトV1によって悪化することを抑制可能である。また、ユーザがカラーペンを手に持っている場合、カラーペンに仮想オブジェクトV1が投射されない。このため、カラーペンに仮想オブジェクトV1が投射されるために、ユーザがカラーペンの色を認識し難くなることを抑制可能である。
出力部311は、把持手が撮像画像に写っているか否かの第1判定結果を出力する。認識部312は、撮像データを用いて、認識対象物を認識する。物体判定部313は、把持手が撮像画像に写っていることを第1判定結果が示す場合、認識対象物の中で把持手までの距離が最も短い物体を、被把持体として判定する。
被把持体は、把持手によって持たれている。このため、認識対象物の中で把持手までの距離が最も短い物体が、被把持体である可能性が高い。よって、本形態によれば、被把持体を高い精度で判定することが可能である。
出力部311は、画像データと、当該画像データによって示される画像に把持手が写っているか否かを示す判定データと、の相関関係を学習した学習済みモデルM1に、撮像データを入力し、学習済みモデルM1の出力データを第1判定結果として使用する。このため、把持手が存在するか否かの判定を高い精度で実行可能になる。
投射装置10は、拡張現実を実現する仮想オブジェクトV1を含む画像を投射する。例えば、特定位置に投射されるべき仮想オブジェクトV1が被把持体に投射されると、特定位置に仮想オブジェクトV1が存在するという拡張現実についてのユーザの認識が崩れる。よって、ユーザの拡張現実への没頭感が下がる。本態様によれば、仮想オブジェクトV1が被把持体に投射されることが抑制されるため、拡張現実についてのユーザの認識が崩れることを抑制可能である。
<B.変形例>
以上に例示した態様に関する具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
<B1.第1変形例>
図6は、第1変形例を示す図である。第1変形例では、投射システム1は、測定装置40をさらに含む。なお、図6に示す判定部310として、図2に示す判定部310が用いられてもよい。
測定装置40は、測定装置40から把持手までの距離と、測定装置40から認識対象物までの距離と、を測定する。測定装置40は、測定部の一例である。測定装置40が距離を測定する手法は、距離を測定する周知の任意の手法である。例えば、測定装置40が距離を測定する手法は、2つのカメラの視差に基づいて距離を測定する手法、又は、測定装置40が赤外光などを測定対象物に照射してから測定装置40が測定対象物によって反射された光を受けるまでの時間を測定する手法である。なお、把持手の位置は、第1推定結果に基づいて特定される。認識対象物の位置は、第4推定結果に基づいて特定される。
物体判定部313は、測定装置40の測定結果と撮像データとに基づいて、認識対象物の中で把持手までの距離が最も短い物体を、被把持体として判定する。
例えば、認識対象物のうち、撮像画像上での把持手までの距離が最も短い2つ以上の物体が存在する場合、物体判定部313は、以下のように被把持体を判定する。
物体判定部313は、まず、当該2つ以上の物体の各々について測定装置40が測定した距離のうち、測定装置40によって測定された把持手までの距離との差が最も小さい距離を、該当距離として特定する。続いて、物体判定部313は、当該2つ以上の物体のうち、測定装置40によって測定された距離が該当距離と等しい物体を、被把持体として判定する。
第1変形例によれば、認識対象物の中から被把持体を判定するために撮像データのみを用いる場合には被把持体を1つに特定できないときでも、被把持体を1つに特定することが可能である。よって、認識対象物の中から被把持体を判定するために撮像データのみを用いる構成に比べて、被把持体を特定する精度が向上する。
第1変形例において、物体判定部313は、撮像画像上での把持手までの距離が最も短い2つ以上の認識対象物が存在する場合にのみ、測定装置40を動作させることが望ましい。この場合、測定装置40の測定結果が必要なときにのみ、測定装置40を動作させることが可能である。よって、測定装置40の不必要な動作を抑制することが可能である。
<B2.第2変形例>
例えば、ユーザが、手に持っているスマートフォンの画面と、投射面Pに置かれた本とを見比べる状況では、スマートフォンと本との両方の視認性を確保するために、スマートフォンと本とのいずれにも仮想オブジェクトV1を投射しないことが望ましい。第2変形例は、上述の状況において、スマートフォンと本のいずれにも仮想オブジェクトV1を投射させないことを可能にする構成である。
第2変形例では、物体判定部313は、さらに、複数の認識対象物のうち被把持体以外の物体である1以上の残余物体の中から、被把持体までの距離が最も短い最近物体を特定する。投射制御部320は、投射装置10が最近物体へ仮想オブジェクトV1を投射することをさらに抑制する。
例えば、物体判定部313は、1以上の残余物体の中から、撮像画像上での被把持体までの距離が最も短い物体を、最近物体として特定する。撮像画像上での残余物体から被把持体までの距離は、例えば、撮像画像における残余物体の重心位置と、撮像画像における被把持体の重心位置と、の距離である。なお、撮像画像における、残余物体と被把持体との距離は、撮像画像における残余物体物の任意の一点と、撮像画像における被把持体の任意の一点と、の距離でもよい。
続いて、物体判定部313は、最近物体の存在する領域を特定する。物体判定部313が最近物体の存在する領域を特定する手法は、物体判定部313が被把持体の存在する領域を特定する手法と同様である。
投射制御部320は、仮想オブジェクトV1の投射領域R2が、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、被把持体が存在する領域、及び、最近物体の存在する領域の少なくとも1つと重なる場合、仮想オブジェクトV1の投射を禁止する。なお、投射制御部320は、最近物体の存在する領域を、物体判定部313から入手する。
残余物体のうち、被把持体までの距離が最も短い物体は、ユーザによって視認されている可能性がある。したがって、第2変形例によれば、ユーザによって視認されている可能性がある物体への仮想オブジェクトV1の投射を抑制できる。よって、ユーザによって視認されている可能性がある物体について、仮想オブジェクトV1の投射に起因する視認性の問題が生じることを抑制できる。
<B3.第3変形例>
第2変形例では、残余物体のうち、撮像画像上での被把持体までの距離が最も短い物体に対して、仮想オブジェクトV1が投射されることが抑制される。
しかしながら、残余物体のうち、被把持体までの距離が最も短い物体であっても、被把持体までの距離が所定距離以上である場合、被把持体と共にユーザによって視認されている可能性は低い。
そこで、第3変形例では、1以上の残余物体のうち、被把持体との距離が閾値以下である対象物体に対してのみ、仮想オブジェクトV1が投射されることが抑制される。
具体的には、物体判定部313は、1以上の残余物体の中から、被把持体との距離が閾値以下である物体である対象物体を特定する。投射制御部320は、対象物体への仮想オブジェクトV1の投射をさらに禁止する。
例えば、物体判定部313は、1以上の残余物体のうち、撮像画像上での被把持体までの距離が閾値以下である物体を、対象物体として特定する。続いて、物体判定部313は、対象物体の存在する領域を特定する。物体判定部313が対象物体の存在する領域を特定する手法は、物体判定部313が被把持体の存在する領域を特定する手法と同様である。
投射制御部320は、投射領域R2が、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、被把持体が存在する領域、及び、対象物体の存在する領域の少なくとも1つと重なる場合、仮想オブジェクトV1の投射を禁止する。なお、投射制御部320は、対象物体の存在する領域を、物体判定部313から入手する。
第3変形例によれば、被把持体と共にユーザによって視認されている可能性が高い物体に対する仮想オブジェクトV1の投射を抑制できる。よって、被把持体と共にユーザによって視認されている可能性が高い物体において仮想オブジェクトV1の投射に起因する視認性の問題が生じることを抑制できる。
なお、閾値は、調整可能であることが望ましい。この場合、ユーザは、投射システム1の使用態様に応じて、閾値を調整できる。一例を挙げると、ユーザは、デフォルトの閾値(以下「基準値」と称する)を、投射システム1の使用態様に応じて変更する。
物体判定部313は、認識部312の認識結果に基づいて、被把持体の種類を判定してもよい。この場合、物体判定部313は、被把持体の種類に応じて、閾値を設定してもよい。
例えば、被把持体がスマートフォンである場合、ユーザは、手で持っているスマートフォンのみを視認している可能性が高い。このため、残余物体の視認性が悪くても、ユーザにとって問題が生じる可能性が小さい。したがって、被把持体がスマートフォンである場合、物体判定部313は、閾値を基準値より小さくする。閾値が基準値よりも小さくなると、残余物体が対象物体として特定される可能性が低くなる。
一方、被把持体がペンである場合、ユーザは、ペンでカレンダーに文字等を書くために、手で持っているペンに加えて、ペンの近くのカレンダーを見ている可能性がある。このため、残余物体のうちペンと共に視認されている物体(例えばカレンダー)において視認性が悪くなると、ユーザにとって問題が生じる可能性が高い。したがって、被把持体がペンである場合、物体判定部313は、閾値を基準値より大きくする。閾値が基準値よりも大きくなると、残余物体が対象物体として特定される可能性が高くなる。
このように、物体判定部313が、被把持体の種類に応じて閾値を設定する場合、必要に応じて、仮想オブジェクトV1の投射を制御できる。
<B4.第4変形例>
第1実施形態では、投射領域R2が、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、及び、被把持体が存在する領域の少なくとも1つと重なる場合、投射制御部320は、投射装置10への画像情報の提供を停止した。このため、ユーザの手及び腕等に仮想オブジェクトV1が投射されることによって、ユーザが違和感を覚えることを抑制可能である。
しかしながら、被把持体の視認性における問題を解決することを主に鑑みる場合には、投射領域R2が、被把持体が存在する領域の少なくとも一部と重なる場合にのみ、投射制御部320は、投射装置10への画像情報の提供を停止してもよい。この場合、人体と非把持手の各々について撮像画像に写っているか否かを判定する処理を省略でき、人体が存在する領域、及び、非把持手が存在する領域の各々を推定する処理を省略することが可能である。
なお、人体と非把持手との一方のみについて撮像画像に写っているか否かを判定する処理が省略され、当該一方のみについて撮像画像に写っている領域を推定する処理が省略されてもよい。
<B5.第5変形例>
第1実施形態では、投射制御部320は、投射装置10が被把持体へ仮想オブジェクトV1を投射することを抑制する態様として、投射装置10が仮想オブジェクトV1を投射することを禁止する態様を実行する。
しかしながら、投射制御部320は、仮想オブジェクトV1の投射領域R2を、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、及び、被把持体が存在する領域のいずれとも重ならない領域に変更してもよい。
例えば、投射制御部320は、人体が存在する領域、非把持手が存在する領域、把持手が存在する領域、及び、被把持体が存在する領域のいずれとも重ならない領域に仮想オブジェクトV1の投射領域R2を位置させる画像情報を、投射装置10に提供する。
一例を挙げると、図4に示すように仮想オブジェクトV1が投射されている状況において、図7に示すように仮想オブジェクトV1の投射領域R2に本F2を持つ手F1が現れると、仮想オブジェクトV1の投射領域R2が移動される。
<C.その他>
(1)第1実施形態及び第1変形例~第4変形例の各々においては、記憶装置300は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体を含んでもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
(2)第1実施形態及び第1変形例~第4変形例の各々において説明した情報などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、情報、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。なお、本明細書において説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
(3)第1実施形態及び第1変形例~第4変形例の各々において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルによって管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)第1実施形態及び第1変形例~第4変形例の各々において、判定は、1ビットによって表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)第1実施形態及び第1変形例~第4変形例の各々において例示した処理手順、シーケンス、フローチャート等は、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書において説明した方法については、例示的な順序によって様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1、図2及び図6に例示された各機能は、ハードウェア及びソフトウェアの任意の組み合わせによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体にて構成された2個以上の装置によって実現されてもよい。
(7)第1実施形態及び第1変形例~第4変形例の各々において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(8)第1実施形態及び第1変形例~第4変形例の各々において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)第1実施形態及び第1変形例~第4変形例の各々において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(10)本明細書において使用する「第1」及び「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること又は何らかの形において第1要素が第2要素に先行しなければならないことを意味しない。
(11)第1実施形態及び第1変形例~第4変形例の各々において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲において使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(12)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(13)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
1…投射システム、10…投射装置、20…撮像装置、30…投射制御装置、300…記憶装置、302…処理装置、310…判定部、311…出力部、312…認識部、313…物体判定部、320…投射制御部、M1~M3,T1~TN…学習済みモデル、SG1,SG2…セグメンテーション部、40…測定装置。

Claims (8)

  1. 手によって持たれている物体である被把持体が、投射部によって投射される投射画像の投射先を撮像することによって生成される撮像データが表す撮像画像に写っているか否かを判定する判定部と、
    前記被把持体が前記撮像画像に写っていると前記判定部が判定する場合、前記投射先に含まれる前記被把持体への前記投射画像の投射を禁止する投射制御部と、
    を含み、
    前記判定部は、
    物体を持っている手である把持手が前記撮像画像に写っているか否かの判定結果を出力する出力部と、
    前記撮像データを用いて、前記手とは異なる物体である1以上の認識対象物を認識する認識部と、
    前記把持手が前記撮像画像に写っていることを前記判定結果が示す場合、前記1以上の認識対象物の中で前記把持手までの距離が最も短い物体を、前記被把持体として判定する物体判定部と、
    を含む投射制御装置。
  2. 前記物体判定部は、前記把持手までの距離を示す測定結果と、前記1以上の認識対象物までの距離を示す測定結果と、前記撮像データとに基づいて、前記1以上の認識対象物の中で前記把持手までの距離が最も短い物体を、前記被把持体として判定する
    請求項に記載の投射制御装置。
  3. 前記1以上の認識対象物が、手とは異なる物体である複数の認識対象物である場合、前記物体判定部は、さらに、前記複数の認識対象物のうちの前記被把持体以外の物体である1以上の残余物体の中から、前記被把持体までの距離が最も短い最近物体を特定し、
    前記投射制御部は、さらに、前記投射先に含まれる前記最近物体への前記投射画像の投射を禁止する
    請求項1または2に記載の投射制御装置。
  4. 前記1以上の認識対象物が、手とは異なる物体である複数の認識対象物である場合、前記物体判定部は、さらに、前記複数の認識対象物のうちの前記被把持体以外の物体である1以上の残余物体の中から、前記被把持体との距離が閾値以下である物体である対象物体を特定し、
    前記投射制御部は、さらに、前記投射先に含まれる前記対象物体への前記投射画像の投射を禁止する、
    請求項1または2に記載の投射制御装置。
  5. 前記物体判定部は、
    前記被把持体の種類を判定し、
    前記被把持体の種類に応じて、前記閾値を設定する、
    請求項に記載の投射制御装置。
  6. 前記出力部は、
    画像データと、当該画像データによって示される画像に前記把持手が写っているか否かを示す判定データと、の相関関係を学習した学習済みモデルに、前記撮像データを入力し、前記学習済みモデルの出力データを、前記判定結果として使用する、
    請求項1から5のいずれか1項に記載の投射制御装置。
  7. 前記投射画像は、拡張現実を実現する仮想オブジェクトを示す、
    請求項1からのいずれか1項に記載の投射制御装置。
  8. 投射先に投射画像を投射する投射部と、
    前記投射先を撮像することによって撮像データを生成する撮像部と、
    手によって持たれている物体である被把持体が、前記撮像データが示す撮像画像に写っているか否かを判定する判定部と、
    前記被把持体が前記撮像画像に写っていると前記判定部が判定する場合、前記投射先に含まれる前記被把持体への前記投射画像の投射を禁止する投射制御部と、
    を含み、
    前記判定部は、
    物体を持っている手である把持手が前記撮像画像に写っているか否かの判定結果を出力する出力部と、
    前記撮像データを用いて、前記手とは異なる物体である1以上の認識対象物を認識する認識部と、
    前記把持手が前記撮像画像に写っていることを前記判定結果が示す場合、前記1以上の認識対象物の中で前記把持手までの距離が最も短い物体を、前記被把持体として判定する物体判定部と、
    を含む投射システム。
JP2021542716A 2019-08-30 2020-08-12 投射制御装置及び投射システム Active JP7342137B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019158755 2019-08-30
JP2019158755 2019-08-30
PCT/JP2020/030667 WO2021039395A1 (ja) 2019-08-30 2020-08-12 投射制御装置及び投射システム

Publications (2)

Publication Number Publication Date
JPWO2021039395A1 JPWO2021039395A1 (ja) 2021-03-04
JP7342137B2 true JP7342137B2 (ja) 2023-09-11

Family

ID=74685444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542716A Active JP7342137B2 (ja) 2019-08-30 2020-08-12 投射制御装置及び投射システム

Country Status (3)

Country Link
US (1) US12243239B2 (ja)
JP (1) JP7342137B2 (ja)
WO (1) WO2021039395A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024096507A (ja) * 2021-05-17 2024-07-16 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303493A (ja) 2004-04-08 2005-10-27 Matsushita Electric Ind Co Ltd 障害物適応投射型表示装置
JP2009048022A (ja) 2007-08-21 2009-03-05 Funai Electric Co Ltd プロジェクタ
JP2009134693A (ja) 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5643153B2 (ja) * 2011-05-23 2014-12-17 パナソニック株式会社 光投影装置
JP2013033206A (ja) 2011-07-06 2013-02-14 Ricoh Co Ltd 投影型表示装置、情報処理装置、投影型表示システム、およびプログラム
CN104204940B (zh) * 2012-03-13 2016-04-27 富士胶片株式会社 带投影仪摄影装置及其控制方法
WO2014010251A1 (en) * 2012-07-13 2014-01-16 Panasonic Corporation Hand and object tracking in three-dimensional space
JP5791577B2 (ja) * 2012-09-28 2015-10-07 楽天株式会社 画像処理装置、画像表示方法、およびプログラム
JP6075122B2 (ja) * 2013-03-05 2017-02-08 株式会社リコー システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP2015041233A (ja) * 2013-08-21 2015-03-02 キヤノン株式会社 画像処理装置およびその方法
US20160191877A1 (en) * 2014-12-25 2016-06-30 Panasonic Intellectual Property Management Co., Ltd. Projector device and projection method
JP6443172B2 (ja) * 2015-03-27 2018-12-26 日本電気株式会社 投影装置、投影装置の制御方法、及び制御プログラム
WO2018079446A1 (ja) * 2016-10-27 2018-05-03 日本電気株式会社 情報入力装置および情報入力方法
CN108124144A (zh) * 2016-11-29 2018-06-05 中兴通讯股份有限公司 一种投影控制方法和装置
JP6501806B2 (ja) * 2017-01-05 2019-04-17 キヤノン株式会社 情報処理装置、操作検出方法、及びコンピュータプログラム
WO2019043854A1 (ja) * 2017-08-31 2019-03-07 三菱電機株式会社 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
US10921935B2 (en) * 2018-05-21 2021-02-16 Compal Electronics, Inc. Interactive projection system and interactive projection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303493A (ja) 2004-04-08 2005-10-27 Matsushita Electric Ind Co Ltd 障害物適応投射型表示装置
JP2009048022A (ja) 2007-08-21 2009-03-05 Funai Electric Co Ltd プロジェクタ
JP2009134693A (ja) 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
US20220277460A1 (en) 2022-09-01
US12243239B2 (en) 2025-03-04
WO2021039395A1 (ja) 2021-03-04
JPWO2021039395A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
KR102423730B1 (ko) 위치 자세 추정 방법, 장치, 전자 기기 및 기억 매체
KR102292028B1 (ko) 제스처 인식 방법, 장치, 전자 기기 및 저장 매체
JP7110412B2 (ja) 生体検出方法及び装置、電子機器並びに記憶媒体
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US9612665B2 (en) Information processing apparatus and method of controlling the same
JP2024518333A (ja) マルチスクリーンインタラクション方法及び機器、端末装置、及び車両
US10057479B2 (en) Electronic apparatus and method for switching touch operations between states
CN108737694B (zh) 照相机系统及图像提供方法
US11175737B2 (en) Electronic device for receiving line of sight input, method of controlling electronic device, and non-transitory computer readable medium
CN110399841A (zh) 一种视频分类方法、装置及电子设备
US12277276B2 (en) Methods and apparatuses for controlling a system via a sensor
JP7129294B2 (ja) 電子機器および領域選択方法
CN109189970A (zh) 图片相似度比对方法和装置
US20110033092A1 (en) Apparatus and method for improving face recognition ratio
JP7342137B2 (ja) 投射制御装置及び投射システム
WO2020001016A1 (zh) 运动图像生成方法、装置、电子设备及计算机可读存储介质
CN107133361B (zh) 手势识别方法、装置和终端设备
US20230305634A1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium
CN106991376A (zh) 结合深度信息的侧脸验证方法及装置与电子装置
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
JP6623419B2 (ja) 表示制御装置、撮像装置、スマートフォン、表示制御方法、及びプログラム
JP7337865B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN108604128A (zh) 一种处理方法及移动设备
WO2022161324A1 (zh) 工作状态确定方法和装置
US10338690B2 (en) Information processing apparatus, interaction method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7342137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150