JP2023151420A - 情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP2023151420A
JP2023151420A JP2022061012A JP2022061012A JP2023151420A JP 2023151420 A JP2023151420 A JP 2023151420A JP 2022061012 A JP2022061012 A JP 2022061012A JP 2022061012 A JP2022061012 A JP 2022061012A JP 2023151420 A JP2023151420 A JP 2023151420A
Authority
JP
Japan
Prior art keywords
user
unit
information processing
image
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022061012A
Other languages
English (en)
Inventor
峻 秦野
Shun Hatano
敦士 平井
Atsushi Hirai
隆義 森安
Takayoshi Moriyasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022061012A priority Critical patent/JP2023151420A/ja
Priority to PCT/JP2023/002885 priority patent/WO2023188774A1/ja
Publication of JP2023151420A publication Critical patent/JP2023151420A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザにとって操作しやすい仮想操作領域を設定する。【解決手段】本開示の情報処理装置は、ユーザを撮像した画像を取得し、画像に基づいてユーザの腕部分を検出して、検出したユーザの腕部分の位置及びユーザの腕部分の長さに基づいて、機器への操作を受け付ける仮想操作領域を設定して、画像に基づいて、ユーザの指先と、仮想操作領域との位置関係に基づいて機器を操作する。【選択図】図5

Description

本開示は、情報処理装置、情報処理システム、および情報処理方法に関する。
従来、様々な機器において、ユーザの手の動きを検出して、ユーザの手の動きに応じて動作制御するものがある(例えば、特許文献1参照)。例えば、ディスプレイなどの操作対象について、ユーザがディスプレイに直接触れることなく、ユーザの手の動きに応じてディスプレイで表示している内容を変更する。
特開2018-32055号公報
上記のような技術において、ユーザの選択操作等を特定するための仮想操作領域を設定することが考えられる。このような仮想操作領域は、ユーザにとって操作しやすいように設定されることが望まれる。
本開示は、ユーザにとって操作しやすい仮想操作領域を設定することができる情報処理装置を提供する。
本開示に係る情報処理装置では、ユーザを撮像した画像を取得する画像取得部と、画像に基づいてユーザの腕部分を検出する検出部と、検出部により検出されたユーザの腕部分の位置およびユーザの腕部分の長さに基づいて、機器への操作を受け付ける仮想操作領域を設定する設定部と、画像に基づいて、ユーザの指先と、仮想操作領域との位置関係に基づいて機器を操作する操作部と、を備える。
本開示に係る情報処理装置によれば、ユーザにとって操作しやすい仮想操作領域を設定することができることができる。
図1は、情報処理装置の例を示す図である。 図2Aは、上面から見た操作指示の例を示す図である。 図2Bは、側面から見た操作指示の例を示す図である。 図3Aは、検出範囲の例を示す図である。 図3Bは、各エリアの検出可否を示す表である。 図4Aは、誤検出の一例を示す図である。 図4Bは、誤検出の別の例を示す図である。 図5は、第1の実施形態にかかる情報処理装置の機能構成を示すブロック図である。 図6Aは、上面から見たタッチ判定面を示す図である。 図6Bは、側面から見たタッチ判定面を示す図である。 図7Aは、上面から見たタッチ判定面を示す図である。 図7Bは、側面から見たタッチ判定面を示す図である。 図8Aは、上面から見たタッチ判定面を示す図である。 図8Bは、側面から見たタッチ判定面を示す図である。 図9Aは、上面から見たタッチ判定面を示す図である。 図9Bは、側面から見たタッチ判定面を示す図である。 図10Aは、上面から見た検出有効領域を示す図である。 図10Bは、側面から見た検出有効領域を示す図である。 図11は、第2の実施形態にかかる処理手順を示すフローチャートである。 図12は、第2の実施形態にかかる制御装置による効果を示す図である。 図13は、複数ユーザのそれぞれのタッチ判定面を設定する例を示す図である。 図14は、第3の実施形態にかかる処理手順を示すフローチャートである。 図15は、第4の実施形態にかかる画像除去の例を説明するための図である。 図16Aは、第4の実施形態にかかる画像除去の例を説明するための図である。 図16Bは、第4の実施形態にかかる画像除去の例を説明するための図である。 図17は、第4の実施形態にかかる処理手順を示すフローチャートである。 図18は、変形例にかかるセンサの配置位置を示す図である。 図19は、変形例にかかるセンサの配置位置を示す図である。 図20は、変形例にかかるセンサの配置位置を示す図である。 図21は、変形例にかかるディスプレイの例を示す図である。 図22は、複数機器のタッチ判定面の例を示す図である。 図23は、複数機器のタッチ判定面の例を示す図である。 図24Aは、左腕に基づくタッチ判定面を示す図である。 図24Bは、右腕に基づくタッチ判定面を示す図である。 図25Aは、両腕に基づく検出有効領域を示す図である。 図25Bは、両腕に基づく検出有効領域を示す図である。
以下、図面を参照しながら、本開示に係る情報処理装置の実施形態について説明する。
(第1の実施形態)
第1の実施形態にかかる情報処理装置について説明する前に、ユーザの腕部分の動きに基づいて動作する装置について説明する。
図1に、ユーザの腕部分の動きに基づいて動作する情報処理装置の例を示す。情報処理装置は、センサ500と、ディスプレイ600とを有する。センサ500は、例えば、カメラである。センサ500は、ユーザURを撮像し続ける。ユーザURは、腕71を有する。ここで、腕71は、上腕、前腕だけでなく手も含む。手は、指先72も含む。情報処理装置は、ユーザURの指先72の位置に基づいて、ディスプレイ600に表示しているデータを制御する。
情報処理装置は、機器(例えば、ディスプレイ600)への操作を受け付けるタッチ判定面AR100と、ユーザURの指先72の動きを検出する領域である検出有効領域AR200とを設定している。この例では、タッチ判定面AR100は、ディスプレイ600の表示面と平行な平面として設定される。
指先72がタッチ判定面AR100よりもディスプレイ600に近い範囲に入ると、情報処理装置は、情報処理装置への操作指示がされたと検知して、当該操作指示に基づく処理を実行し、実行結果をディスプレイ600へ表示する。
続いて、図2Aおよび図2Bに、ユーザURにより情報処理装置の操作指示がされる例について、説明する。図2Aは、上面から見たユーザURの操作例を示す図であり、図2Bは、側面から見たユーザURの操作例を示す図である。
図2Aおよび図2Bに示すように、指先72がタッチ判定面AR100の範囲に入る(言い換えると、指先72がタッチ判定面AR100よりディスプレイ600寄りに位置する)と、情報処理装置は、ディスプレイ600の所定の場所をタッチしたものと判定する。タッチ判定面AR100は、ディスプレイ600への操作を受け付ける領域である。以下、情報処理装置が、ユーザURの指先72がディスプレイ600の所定の場所をタッチしたものと判定することを、タッチ検出と呼ぶことがある。また、情報処理装置は、ユーザURが軌跡TRKに沿って、指先72をタッチ判定面AR100から離れる方向に移動させると、情報処理装置100は、ディスプレイ600の所定の場所をタッチしていた状態からリリースした状態に遷移したと判定する。
続いて、図3Aおよび図3Bを用いて、ユーザURが指先72を動作させることが可能な範囲と、タッチ判定面AR100と、検出有効領域AR200との関係を示す。なお、この例では車両に搭載されているディスプレイ600を想定しており、ユーザURが右側の座席に着席していることを想定している。そのため、ユーザURは図において右寄りに位置している。ここで、検出有効領域AR200においては、ユーザURの指検出が可能である。指検出とは、ユーザURの指が存在している位置を検出することである。検出有効領域AR200にユーザURの指が位置すると、指検出が可能となる。
図3Aに示すように、ユーザURが指先72を動作させることが可能な範囲は、領域AR300と、領域AR400と、領域AR500とを合わせた範囲である。
領域AR300は、ユーザURが指先72を動作させることが可能な範囲のうち、タッチ判定面AR100よりもディスプレイ600に近い範囲に位置する領域である。そのため、図3Bに示すように、情報処理装置100は、領域AR300においてタッチ検出および指検出が可能である。
領域AR400は、ユーザURが指先72を動作させることが可能な範囲のうち、タッチ判定面AR100よりもディスプレイ600から遠い範囲に位置するが、検出有効領域AR200に含まれる領域である。よって、領域AR400は、図3Bに示すように、タッチ検出はできないが、指検出ができる領域となる。
領域AR500は、ユーザURが指先72を動作させることが可能な範囲のうち、タッチ判定面AR100よりもディスプレイ600から遠い範囲に位置し、検出有効領域AR200にも含まれない領域である。よって、領域AR500は、図3Bに示すように、タッチ検出も指検出もできない領域となる。
図3Aに示す例では、ユーザURが指先72を動作させることが可能な範囲のうち、タッチ検出が可能となる領域、つまりユーザURがディスプレイ600を操作可能な範囲が少ないという問題点がある。
この問題点を解消する方法として、タッチ判定面AR100をユーザURの位置に近づける方法が考えられる。以下では、タッチ判定面AR100よりもディスプレイ600に近い範囲のことを、タッチ検出が可能な範囲と呼ぶことがある。
ここで、図4Aおよび図4Bにタッチ判定面AR100をユーザURの位置に近づけた例を示す。タッチ判定面AR100をユーザURの位置に近づけると、図4Aに示すように、タッチ検出が可能な範囲にユーザURの指先72が届きやすくなる。一方で、例えばユーザURの膝など、ユーザURの指先72以外の部分がタッチ検出可能な範囲に入ってしまい、情報処理装置がユーザURの指先72以外の部分の動きをタッチ操作として誤検出してしまう可能性がある。また、図4Bに示すように、ユーザURがスマートフォンSPを操作している等、ディスプレイ600に対する操作をする意思が無いにも関わらず、情報処理装置が、ユーザURの指先72の動きをタッチ操作として誤検出してしまう可能性がある。
このように、タッチ判定面AR100を単純にユーザURに近づけても、誤検出につながってしまう可能性がある。そこで、第1の実施形態にかかる情報処理装置は、ユーザURにとって操作しやすい仮想操作領域を設定するものである。
図5は、第1の実施形態にかかる情報処理装置である制御装置1を含む情報システムの概要構成を示す図である。第1の実施形態にかかる情報処理装置は、センサ50と、制御装置1と、ディスプレイ60とを備える。
センサ50は、例えば、カメラ装置である。センサ50は、一例として、可視光カメラである。センサ50は、ユーザURを撮像した画像を制御装置1へ出力する。なお、センサ50は、可視光カメラに限らず、例えば、CCDカメラまたはCMOSカメラであってもよい。センサ50は、撮像部の一例である。センサ50は、継続して撮像処理を実行して、画像を制御装置1へ出力する。
ディスプレイ60は、各種データを表示する表示部である。ディスプレイ60は、機器の一例である。
制御装置1は、ユーザURの指先72の動きに応じてディスプレイ60に表示しているデータの処理を実行する。
制御装置1は、制御部10および記憶部30を備える。制御部10は、例えばCPU(Central Processing Unit)として構成され、制御装置1の各部の動作を統括的に制御する。制御部10は、画像取得部11と、画像加工部12と、ランドマーク抽出部13と、検出有効領域設定部14と、タッチ判定面設定部15と、3D座標演算部16と、2D座標変換部17と、判定部18と、機能実行部19と、表示出力部20とを備える。
記憶部30は、各種情報を記憶する。記憶部30は、メモリまたはストレージのような、情報(言い換えるとデータ)を記憶するためのハードウェアにより実現される。具体的に、記憶部30は、基準座標情報31、検出有効領域情報32、およびタッチ判定面情報33を記憶する。基準座標情報31は、センサ50の設置位置の3D座標、センサ50の取付角度の情報、ディスプレイ60位置の3D座標等である。検出有効領域情報32は、検出有効領域を示す座標情報である。検出有効領域とは、ユーザURの指先72の位置変更を検出する領域である。タッチ判定面情報は、タッチ判定面を示す座標情報である。タッチ判定面とは、ディスプレイ60への操作を受け付ける領域である。
画像取得部11は、センサ50から画像を取得する。画像取得部11は、画像取得部の一例である。画像加工部12は、画像取得部11のうち、ユーザURが撮像されていない領域を除去対象として加工する。ランドマーク抽出部13は、ユーザURが撮像されている画像からユーザURのランドマーク部分を検出して、当該ランドマークとなる部分を抽出する。ここで、ランドマークとは、ユーザURの目、肩の3次元座標、ユーザの腕部分である。なお、ランドマーク抽出部13は、ユーザの腕部分の長さを抽出してもよい。また、ランドマーク抽出部13は、ユーザURの目の位置に基づいたユーザURの視野範囲を示す情報を抽出してもよい。
検出有効領域設定部14は、検出有効領域を設定し、検出有効領域を示す座標である検出有効領域情報32を記憶部30へ登録する。検出有効領域設定部14が検出有効領域を設定する方法については、後述する。検出有効領域設定部14は、設定部の一例である。検出有効領域は、検出領域の一例である。
タッチ判定面設定部15は、タッチ判定面を設定し、タッチ判定面座標を示す座標であるタッチ判定面情報33を記憶部30へ登録する。タッチ判定面設定部15は、設定部の一例である。タッチ判定面設定部15がタッチ判定面を設定する方法については、後述する。タッチ判定面は、仮想操作領域の一例である。
3D座標演算部16は、ユーザURの指先の3次元座標を算出する。2D座標変換部17は、ユーザURの指先の3次元座標からディスプレイ60上の2次元座標へ変換する。
判定部18は、タッチ判定面と、指先の3次元座標よりタッチの有無および処理内容を判定する。処理内容は、例えば、タッチ、フリック、ドラッグ等である。
機能実行部19は、判定部18で判定した結果に基づいて、処理内容を実行する。表示出力部20は、処理内容を実行した結果をディスプレイ60へ表示させる。判定部18、機能実行部19、および表示出力部20は、操作部の一例である。
(タッチ判定面設定方法)
続いて、タッチ判定面設定部15が、タッチ判定面を設定する方法について説明する。まず、図6Aおよび図6Bを用いてタッチ判定面を設定する例について説明する。前提として、画像取得部11が、ユーザURを含む画像を取得する。そして、ランドマーク抽出部13は、ユーザURを含む画像から、ユーザURの肩部分、腕部分、および目の部分を抽出している。なお、ランドマーク抽出部13は、ユーザURの腕部分の肘の位置を抽出してもよい。
図6Aは、上面から見たタッチ判定面を示す図である。図6Bは、側面から見たタッチ判定面を示す図である。
図6Aおよび図6Bに示すように、タッチ判定面設定部15は、肩の部分を中心位置S(xs、ys、zs)として、腕の長さに基づいた距離Lからなる以下の球面の式(1)に基づいてタッチ判定面AR1を設定する。
(X-xs)+(Y-ys)+(Z-zs)=L ・・・(1)
なお、上記距離Lは、腕71の長さに基づいた距離であり、例えば、腕71全体の長さ以下の長さである。距離Lは、例えば、腕71全体の長さである。このように、タッチ判定面設定部15は、ユーザURの肩の位置と、ユーザURの腕71の長さとに基づいてタッチ判定面AR1を設定する。また、タッチ判定面設定部15は、上記式(1)に基づいてタッチ判定面AR1を設定することにより、球状の範囲に基づいたタッチ判定面を設定する。タッチ判定面AR1は、式(1)によって示される球面全体であってもよく、図6Aおよび図6Bに示されるように、球面の一部であってもよい。例えば、ユーザURの指先72の可動範囲に基づいて、式(1)で示される球面の一部を、タッチ判定面AR1として設定してもよい。
なお、タッチ判定面設定部15は、ユーザURの視野範囲にさらに基づいてタッチ判定面AR1を設定してもよい。ここで、図7Aおよび図7Bに、タッチ判定面設定部15によるタッチ判定面AR1の設定方法について説明する。
図7Aは、上面から見たタッチ判定面を示す図であり、図7Bは、側面から見たタッチ判定面を示す図である。ここで、ユーザの目の位置からディスプレイ60の端部までを視野範囲とする。具体的には、上面から見た場合、ユーザURの目の位置とディスプレイ60の右端辺とを含む平面である平面L11、ユーザURの目の位置とディスプレイ60の左端辺とを含む平面である平面L12、およびディスプレイ60に囲まれた範囲を視野範囲とする。図7Aにおいては、平面L11および平面L12は直線として示される。また、側面から見た場合、ユーザURの目の位置とディスプレイ60の上端辺とを含む平面である平面L13、ユーザURの目の位置とディスプレイ60の下端辺とを含む平面である平面L14、およびディスプレイ60に囲まれた範囲を視野範囲とする。図7Bにおいては、平面L13および平面L14は直線として示される。タッチ判定面設定部15は、上述のような腕71と、視野範囲とに基づいてタッチ判定面AR1を設定する。具体的には、タッチ判定面設定部15は、式(1)で示される球面のうち、視野範囲に含まれる部分のみをタッチ判定面AR1として設定する。また、図7Aに示すように、タッチ判定面AR1における位置P3は、ディスプレイ60の位置P1に対応し、タッチ判定面AR1における位置P4は、ディスプレイ60の位置P2に対応する。また、図7Bに示すように、タッチ判定面AR1における位置P7は、ディスプレイ60の位置P5に対応し、タッチ判定面AR1における位置P8は、ディスプレイ60の位置P6に対応する。
タッチ判定面AR1を設定する他の例について図8Aおよび図8Bを用いて説明する。図8Aは、上面から見たタッチ判定面を示す図であり、図8Bは、側面から見たタッチ判定面を示す図である。図8Aおよび図8Bに示すように、タッチ判定面設定部15は、腕における肘部分を中心としてタッチ判定面AR1を設定してもよい。この場合、タッチ判定面設定部15は、腕71における肘から手までの長さに基づいてタッチ判定面AR1を設定する。肘から手までの長さとは、肘から指先までの長さを指す。
タッチ判定面AR1を設定する他の例について図9Aおよび図9Bを用いて説明する。図9Aは、上面から見たタッチ判定面を示す図であり、図9Bは、側面から見たタッチ判定面を示す図である。図9Aおよび図9Bに示すように、タッチ判定面設定部15は、腕における肩および肘部分を中心にタッチ判定面AR1を設定してもよい。
なお、タッチ判定面設定部15がタッチ判定面AR1を設定した後、判定部18は、画像から取得したユーザURの手の指部分の位置と、タッチ判定面AR1との位置関係に基づいて、ユーザURの指先72がタッチ判定面AR1を通過する状態である(言い換えると、タッチ検出状態にある)と判定した場合、機能実行部19により機能を実行して、表示出力部20が、実行結果をディスプレイ60に表示させる。
第1の実施形態にかかる制御装置1では、画像取得部11がユーザを撮像した画像を取得し、ランドマーク抽出部13がユーザURの腕部分を検出し、タッチ判定面設定部15が、肩の部分を中心位置として、腕の長さに基づいてタッチ判定面AR1を設定する。判定部18は、画像から取得したユーザURの指先72の位置と、タッチ判定面AR1との位置関係に基づいてタッチ検出状態にあると判定した場合、機能実行部19により機能を実行して、表示出力部20が実行結果をディスプレイ60に表示させる。
このように、制御装置1は、ユーザURの腕部分の長さに基づいてタッチ判定面AR1を設定するので、ユーザの動作に応じたタッチ判定面AR1を設定することができる。すなわち、ユーザにとって操作しやすい仮想操作領域を設定することができる。
また、制御装置1は、肩の部分を中心位置として、腕71の長さに基づいてタッチ判定面AR1を設定しており、言い換えると、腕71の可動範囲に基づいてタッチ判定面AR1を設定している。このように、制御装置1が、腕71の可動範囲に基づいてタッチ判定面AR1を設定することで、図1で示したようなディスプレイ600と平行にタッチ判定面AR600を設定する場合と比較して、意図しないタッチ/リリース操作が行われにくくなる。
また、タッチ判定面設定部15は、ユーザURの肘から手の長さに基づいてタッチ判定面AR1を設定してもよいし、ユーザURの腕71全体の長さに基づいてタッチ判定面AR1を設定してもよい。この場合も、ユーザの動作に応じたタッチ判定面AR1を設定することができる。また、タッチ判定面設定部15は、ユーザURの視野範囲にさらに基づいてタッチ判定面AR1を設定してもよい。この場合、制御装置1は、ユーザURの視野範囲にさらに制限するので、よりユーザにとって操作しやすいタッチ判定面AR1を設定することができる。
(第2の実施形態)
続いて、第2の実施形態にかかる制御装置1について説明する。第2の実施形態にかかる制御装置1では、ユーザにとって操作しやすい検出有効領域を設定する。
(検出有効領域設定方法)
検出有効領域設定部14が、検出有効領域を設定する方法について説明する。まず、図10Aおよび図10Bを用いて検出有効領域を設定する例について説明する。前提として、画像取得部11が、ユーザURを含む画像を取得する。そして、ランドマーク抽出部13は、ユーザURを含む画像から、ユーザURの肩部分、腕部分、および目の部分を抽出している。なお、ランドマーク抽出部13は、ユーザURの腕部分の肘の位置を抽出してもよい。
図10Aは、上面から見たユーザURとディスプレイ60との位置関係を示す図である。図10Bは、側面から見たユーザURとディスプレイ60との位置関係を示す図である。
図10Aおよび図10Bに示すように、検出有効領域設定部14は、肩の部分を中心位置S(xs、ys、zs)として、腕の長さに基づいた距離L1と、腕の長さに基づいた距離L2からなる以下の球の式(2)および式(3)に基づいて検出有効領域AR2を設定する。
(X-xs)+(Y-ys)+(Z-zs)≧L1 ・・・(2)
(X-xs)+(Y-ys)+(Z-zs)≦L2 ・・・(3)
検出有効領域設定部14は、上記式(2)および式(3)を満たす領域を検出有効領域AR2として設定する。なお、L1<L2である。また、第1の実施形態で説明した距離Lと、距離L1と、距離L2との関係を示すと、L1≦L≦L2となる。距離L1は、例えば腕71全体の長さ以下の長さである。距離L1は、例えば腕における肩から肘までの長さである。距離L2は、例えば腕71全体の長さ以下の長さである。距離L2は、例えば腕71全体の長さである。
このように、検出有効領域設定部14は、ユーザURの腕71の長さに基づいて検出有効領域AR2を設定する。検出有効領域AR2は、式(2)および式(3)によって示される領域全体であってもよく、図10Aおよび図10Bに示されるように、式(2)および式(3)によって示される領域の一部であってもよい。例えば、ユーザURの指先72の可動範囲に基づいて、式(2)および式(3)で示される領域の一部を、検出有効領域AR2として設定してもよい。
また、検出有効領域設定部14は、第1の実施形態の例と同様に、肘の部分を中心位置として検出有効領域AR2を設定してもよいし、肩と肘の両方を支点として検出有効領域AR2を設定してもよい。
また、検出有効領域設定部14は、第1の実施形態の例と同様に、ユーザURの視野範囲にさらに基づいて検出有効領域AR2を設定してもよい。
続いて、図11を用いて、第2実施形態にかかる制御装置1の処理手順を説明する。図11は、第2実施形態にかかる制御装置1の処理手順を示すフローチャートである。
まず、ランドマーク抽出部13は、画像取得部11により取得された画像からユーザが検出されるか否かを判断する(ステップS1)。ランドマーク抽出部13が、画像からユーザを検出しなかった場合(ステップS1:No)、処理は再度ステップS1へ進む。また、ランドマーク抽出部13は、画像からユーザを抽出した場合(ステップS1:Yes)、目、肩、肘などのランドマークを検出して、それぞれの3D座標を算出する(ステップS2)。
また、ランドマーク抽出部13は、ランドマークの位置に基づいて、ユーザの腕の長さを算出する(ステップS3)。
検出有効領域設定部14は、ランドマーク位置およびユーザの腕の長さに基づいて、検出有効領域を設定する(ステップS4)。また、タッチ判定面設定部15は、ランドマーク位置およびユーザの腕の長さに基づいて、タッチ判定面を設定する(ステップS5)。3D座標演算部16は、画像上でユーザURの指先72が検出されたか否かを判断する(ステップS6)。ステップS6において、3D座標演算部16が、画像からユーザURの指先を検出しなかった場合(ステップS6:No)、処理はステップS1へ進む。3D座標演算部16は、画像からユーザURの指先を検出した場合(ステップS6:Yes)、指先の3D座標を演算する(ステップS7)。判定部18は、指先の3D座標が検出有効領域AR2内であるか否かを判断する(ステップS8)。判定部18が、指先が検出有効領域AR2内ではないと判定した場合(ステップS8:No)、処理はステップS7へ進む。
また、判定部18は、ステップS8において、指先の3D座標が検出有効領域AR2内であると判定した場合(ステップS8:Yes)、指先がタッチ判定面を通過したか否かを判定する(ステップS9)。判定部18が、ステップS9において、指先がタッチ判定面AR1を通過したと判定した場合(ステップS9:Yes)、指先の動きに対応する操作を判定する。指先の動きに対応する操作とは、例えば、タッチ操作である。タッチ操作の具体例としては、クリック操作、ドラッグ操作、フリック操作が挙げられる。機能実行部19は、判定された操作を実行する(ステップS10)。判定部18は、ステップS9において、指先がタッチ判定面AR1を通過していないと判定した場合(ステップS9:No)、指先の動きに対応する操作を判定する。指先の動きに対応する操作とは、例えばリリース操作、あるいはポインタ移動操作である。機能実行部19は、判定された操作を実行する(ステップS11)。
第2の実施形態にかかる制御装置1では、検出有効領域設定部14が、肩の部分を中心位置として、腕の長さに基づいて検出有効領域AR2を設定する。判定部18が、画像から取得したユーザURの指先72の位置と、検出有効領域AR2との位置関係に基づいて、指先の動きに対応する操作を判定し、機能実行部19が当該操作に対応する機能を実行して、表示出力部20が実行結果をディスプレイ60に表示させる。
このように、制御装置1は、ユーザURの腕部分の長さに基づいて検出有効領域AR2を設定するので、ユーザの動作に応じた検出有効領域AR2を設定することができる。すなわち、ユーザにとって操作しやすい検出有効領域を設定することができる。
また、図12に示すように、制御装置1は、ユーザUR1の腕71の長さに基づいて検出有効領域AR2を設定する。これにより、仮にユーザUR2が、ディスプレイ60周辺で動作したとしても、ユーザUR2は検出有効領域AR2には含まれない。これにより、制御装置1が別のユーザの動作を誤検知することを回避することができる。
(第3の実施形態)
続いて、第3の実施形態にかかる制御装置1について説明する。第3の実施形態にかかる制御装置1は、複数のユーザのそれぞれに検出有効領域およびタッチ判定面を設定し、ユーザの優先度に基づいてタッチ判定する。
画像取得部11は、複数ユーザが撮像されている画像を取得する。ランドマーク抽出部13は、複数ユーザのそれぞれのランドマークを抽出する。検出有効領域設定部14は、それぞれのユーザの腕の長さに基づいて、それぞれのユーザの検出有効領域AR2を設定する。また、タッチ判定面設定部15は、それぞれのユーザの腕の長さに基づいて、それぞれのユーザのタッチ判定面AR1を設定する。
制御装置1は、複数ユーザが撮像されている場合、優先度が高いユーザを設定する。判定部18は、優先度が高いユーザの指先72と、タッチ判定面AR1との位置関係に基づいてディスプレイ60を操作する。
ここで、図13に、複数ユーザと、ディスプレイ60との位置関係の例を示す。図13に示すように、ユーザUR1およびユーザUR2がディスプレイ60の近くにいる場合、制御装置1は、ユーザUR1のタッチ判定面AR1aおよび検出有効領域AR2aを設定する。また、制御装置1は、ユーザUR2のタッチ判定面AR1bおよび検出有効領域AR2bを設定する。
そして、制御装置1は、所定の操作により、ユーザUR1のタッチ判定面AR1aおよび検出有効領域AR2aの優先度を高めておく。これにより、制御装置1は、タッチ判定面AR1aおよび検出有効領域AR2aを有効状態にする。これに伴い、制御装置1は、タッチ判定面AR1bおよび検出有効領域AR2bを無効状態にする。
そして、制御装置1は、ユーザUR1の指先72の位置と、タッチ判定面AR1aおよび検出有効領域AR2aの位置関係に基づいてディスプレイ60の表示状態を変更する。
続いて、図14を用いて、第3実施形態にかかる制御装置1の処理手順を説明する。図14は、第2実施形態にかかる制御装置1の処理手順を示すフローチャートである。
まず、ランドマーク抽出部13は、画像取得部11により取得された画像からユーザが検出されるか否かを判断する(ステップS21)。ランドマーク抽出部13が、画像からユーザを検出しなかった場合(ステップS21:No)、処理は再度ステップS21へ進む。また、ランドマーク抽出部13は、画像からユーザを抽出した場合(ステップS21:Yes)、目、肩、肘などのランドマークを検出して、それぞれの3D座標を算出する(ステップS22)。
また、ランドマーク抽出部13は、ランドマークの位置に基づいて、ユーザの腕の長さを算出する(ステップS23)。
検出有効領域設定部14は、ランドマーク位置およびユーザの腕の長さに基づいて、検出有効領域AR2を設定する(ステップS24)。また、タッチ判定面設定部15は、ランドマーク位置およびユーザの腕の長さに基づいて、タッチ判定面AR1を設定する(ステップS25)。画像から検出されたユーザのうち、検出有効領域AR2およびタッチ判定面AR1を未設定のユーザがいる場合(ステップS26:Yes)、処理はステップS22へ進む。また、全てのユーザのタッチ判定面AR1および検出有効領域AR2を設定した場合、すなわち未設定のユーザがいない場合(ステップS26:No)、制御装置1は、複数のタッチ判定面AR1および検出有効領域AR2の優先度を設定する(ステップS27)。
制御装置1は、例えば、ディスプレイ60に表示されているコンテンツに応じて、複数のタッチ判定面AR1および検出有効領域AR2の優先度を設定する。制御装置1は、後述するステップS29の後に、優先度の設定を行ってもよい。制御装置1は、例えば、ステップS29において3D座標を演算された指先のうち、先に動き出した指先の近くに位置するユーザに対応するタッチ判定面AR1および検出有効領域AR2を、優先度が高いと設定してもよい。
3D座標演算部16は、画像上でいずれかのユーザの指先72が検出されたか否かを判断する(ステップS28)。ステップS28において、3D座標演算部16が、画像からユーザURの指先を検出しなかった場合(ステップS28:No)、処理はステップS21へ進む。3D座標演算部16は、画像からいずれかのユーザURの指先を検出した場合(ステップS28:Yes)、指先の3D座標を演算する(ステップS29)。判定部18は、指先の3D座標が最も優先度の高い検出有効領域AR2内であるか否かを判断する(ステップS30)。判定部18が、指先が検出有効領域AR2内ではないと判定した場合(ステップS30:No)、処理はステップS29へ進む。
また、判定部18は、ステップS30において、指先の3D座標が最も優先度の高い検出有効領域AR2内であると判定した場合(ステップS30:Yes)、指先が最も優先度高いタッチ判定面AR1を通過したか否か判定する(ステップS31)。判定部18は、ステップS31において、指先が最も優先度の高いタッチ判定面AR1を通過したと判定した場合(ステップS31:Yes)、指先の動きに対応する操作を判定する。指先の動きに対応する操作とは、例えば、タッチ操作である。タッチ操作の具体例としては、クリック操作、ドラッグ操作、フリック操作が挙げられる。機能実行部19は、判定されたタッチ操作を実行する(ステップS32)。判定部18は、ステップS31において、指先がタッチ判定面AR1を通過していないと判定した場合(ステップS31:No)、指先の動きに対応する操作を判定する。指先の動きに対応する操作とは、例えばリリース操作、あるいはポインタ移動操作である。機能実行部19は、判定された操作を実行する(ステップS33)。
このように、第3の実施形態にかかる制御装置1は、複数の検出有効領域AR2およびタッチ判定面AR1を設定した場合、優先度の高い方の検出有効領域AR2およびタッチ判定面AR1に基づいてディスプレイ60を操作することができる。これにより、操作指示を行うものとしてより適切なユーザの動作に基づいて、ディスプレイ60を操作することができる。
(第4の実施形態)
続いて、第4の実施形態にかかる制御装置1について説明する。第4の実施形態にかかる制御装置1は、画像からユーザが撮像されていない不要領域を除去し、不要領域が除去された画像から検出した指の位置と、検出有効領域AR2およびタッチ判定面AR1との位置関係に基づいてディスプレイ60を操作する。
図15に、ユーザと、ディスプレイ60との位置関係の例を示す。図15に示す例では、センサ50が撮像可能な範囲は領域AR11と領域AR12を含む。領域AR11は、検出有効領域AR2およびタッチ判定面AR1を含む。一方、領域AR12は、検出有効領域AR2およびタッチ判定面AR1を含まない。よって、領域AR12に指が位置していたとしても、制御装置1はその指の座標演算を行う必要がない。そこで、制御装置1の画像加工部12は、画像における領域AR12に対応する部分を除去する、除去処理を行う。画像加工部12は、例えば領域AR12に対応する部分をトリミングすることにより、除去処理を行う。除去処理を行うことにより、画像において座標演算が行われる領域である、座標演算領域を減少させることができる。
また、画像加工部12は、画像におけるユーザが撮像された部分以外を除去することにより除去処理を行ってもよい。ここで、図16Aおよび図16Bを用いて、除去処理の例を説明する。
画像加工部12は、図16Aに示される画像から、ユーザが撮像された部分の領域AR111のみを残し、ユーザが撮像された部分でない領域AR112を除去する除去処理を行う。除去処理の結果、図16Bに示すように、ユーザが撮像された部分の領域AR111のみが残った画像が得られる。この結果、座標演算領域が領域AR111のみとなる。
続いて、図17を用いて、第4実施形態にかかる制御装置1の処理手順を説明する。図17は、第4実施形態にかかる制御装置1の処理手順を示すフローチャートである。
まず、ランドマーク抽出部13は、画像取得部11により取得された画像からユーザが検出されるか否かを判断する(ステップS41)。ランドマーク抽出部13が、画像からユーザを検出しなかった場合(ステップS41:No)、処理は再度ステップS1へ進む。また、ランドマーク抽出部13は、画像からユーザを抽出した場合(ステップS41:Yes)、目、肩、肘などのランドマークを検出して、それぞれの3D座標を算出する(ステップS42)。
また、ランドマーク抽出部13は、ランドマークの位置に基づいて、ユーザの腕の長さを算出する(ステップS43)。
検出有効領域設定部14は、ランドマーク位置およびユーザの腕の長さに基づいて、検出有効領域を設定する(ステップS44)。また、タッチ判定面設定部15は、ランドマーク位置およびユーザの腕の長さに基づいて、タッチ判定面を設定する(ステップS45)。
画像加工部12は、除去処理によって画像の座標演算領域を減少させる(ステップS46)。3D座標演算部16は、画像上の座標演算領域内においてユーザURの指先72が検出されたか否かを判断する(ステップS47)。ステップS47において、3D座標演算部16が、画像上の座標演算領域内においてユーザURの指先を検出しなかった場合(ステップS47:No)、処理はステップS41へ進む。3D座標演算部16は、画像上の座標演算領域内においてユーザURの指先を検出した場合(ステップS47:Yes)、指先の3D座標を演算する(ステップS48)。判定部18は、指先の3D座標が検出有効領域AR2内であるか否かを判断する(ステップS49)。判定部18が、指先が検出有効領域AR2内ではないと判定した場合(ステップS49:No)、処理はステップS48へ進む。
また、判定部18は、ステップS49において、指先の3D座標が検出有効領域AR2内であると判定した場合(ステップS49:Yes)、指先がタッチ判定面を通過したか否かを判定する(ステップS50)。判定部18は、ステップS50において、指先がタッチ判定面AR1を通過したと判定した場合(ステップS50:Yes)、指先の動きに対応する操作を判定する。指先の動きに対応する操作とは、例えば、タッチ操作である。タッチ操作の具体例としては、クリック操作、ドラッグ操作、フリック操作が挙げられる。機能実行部19は、判定された操作を実行する(ステップS51)。判定部18は、ステップS50において、指先がタッチ判定面AR1を通過していないと判定した場合(ステップS50:No)、指先の動きに対応する操作を判定する。指先の動きに対応する操作とは、例えばリリース操作、あるいはポインタ移動操作である。機能実行部19は、判定された操作を実行する(ステップS52)。
このように、第4実施形態にかかる制御装置1は、画像における、検出有効領域AR2およびタッチ判定面AR1の位置から大きく外れる位置を座標演算対象から除去する。これにより、制御装置1における、処理負荷を軽減させることができる。
(変形例)
上述の実施形態では、特に述べなかったが、ユーザURとディスプレイ60との位置関係に基づいて、センサ50の位置を適宜配置してもよい。例えば、図18に示すように、センサ50をディスプレイ60より前の位置に配置してもよい。この場合、センサ50が撮像する範囲であるセンシングエリアAR3に、検出有効領域AR2およびタッチ判定面AR1をより確実に含めることができる。
また、図19に示すように、センサ50をユーザURの方向に向けて配置してもよい。例えば、ユーザURがディスプレイ60に対して右側に位置する場合、センサ50を右向きに配置してもよい。この場合、制御装置1は、センシングエリアAR3をユーザURの周囲に絞ることができるので、他のユーザの動きを制御装置1が誤検出する可能性を軽減させることができる。
また、図20に示すように、センサ50をディスプレイ60より前の位置に配置し、且つセンサ50をユーザURの方向に向けて配置してもよい。
また、ディスプレイ60の形状は、任意である。例えば、図21に示すように、曲面状のディスプレイ60を用いてもよい。
また、制御装置1は、複数の機器に対応する検出有効領域AR2およびタッチ判定面AR1を設定してもよい。例えば、図22に示すように、制御装置1は、機器61a、機器61b、および機器61cのすべてに対応する検出有効領域AR2およびタッチ判定面AR1を設定してもよい。この場合、制御装置1は、機器毎に視野範囲を定めておき、ユーザURの指の位置と、検出有効領域AR2およびタッチ判定面AR1との位置関係と、それぞれの機器の視野範囲に基づいて操作制御してもよい。
また、制御装置1は、各機器61の視野範囲も考慮して、各機器61に対応する検出有効領域AR2およびタッチ判定面AR1をそれぞれ設定してもよい。例えば、図23に示すように、制御装置1は、各機器61の視野範囲も考慮して、検出有効領域AR2a~検出有効領域AR2cと、タッチ判定面AR1a~タッチ判定面AR1cを設定する。このように、制御装置1は、タッチ判定面AR1a~タッチ判定面AR1cのそれぞれが重ならないようにタッチ判定面を設定する。
上述では、制御装置1が、右側の腕71の位置や長さに基づいて検出有効領域AR2およびタッチ判定面AR1を設定する場合について述べたが、左側の腕71の位置や長さに基づいて検出有効領域AR2およびタッチ判定面AR1を設定してもよい。また、図24Aおよび図24Bに示すように、左側の腕71の位置および長さに基づいた、左側の腕71に対する検出有効領域AR2およびタッチ判定面AR1(図24A)と、右側の腕71の位置および長さに基づいた、右側の腕71に対する検出有効領域AR2およびタッチ判定面AR1(図24B)と、をそれぞれ設定してもよい。
この場合、判定部18は、画像から検出した指が右腕のものであるか左腕のものであるかを判定した上で、検出した指と、対応する検出有効領域AR2およびタッチ判定面AR1との位置関係を判定する。
なお、図25Aに示すような左側の腕71に対応する検出有効領域AR2aと、右側の腕71に対応する検出有効領域AR2bとを足し合わせた領域を検出有効領域としてもよい。また、図25Bに示すように、図25Aに示した検出有効領域AR2aおよび検出有効領域AR2bを含む検出有効領域AR2cを設定してもよい。
この場合、判定部18は、画像から検出した指が右腕のものであるか左腕のものであるかに関わらず、指の位置と、検出有効領域AR2cとの位置関係を判定する。また、判定部18は、指とタッチ判定面AR1との位置関係の判定については、指が左腕のものか右腕のものかを区別して、それぞれ対応するタッチ判定面AR1と指との位置関係を判定する。
以上の実施形態に関し、以下を開示する。
ユーザを撮像した画像を取得する画像取得部と、
前記画像に基づいてユーザの腕部分を検出する検出部と、
前記検出部により検出されたユーザの腕部分の位置および前記ユーザの腕部分の長さに基づいて、前記ユーザの指先の位置変更を検出する領域である検出領域を設定する設定部と、
前記画像に基づいて、ユーザの指先と、前記検出領域との位置関係に基づいて機器を操作する操作部と、
を備える情報処理装置。
以上、本開示の実施形態を説明したが、上述の実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらに、異なる実施形態および変形例にわたる構成要素を適宜組み合わせてもよい。
また、上述した実施の形態における「・・・部」という表記は、「・・・回路(circuitry)」、「・・・アッセンブリ」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。
上記各実施形態では、本開示はハードウェアを用いて構成する例にとって説明したが、本開示はハードウェアとの連携においてソフトウェアでも実現することも可能である。
また、上記各実施形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。集積回路は、上記実施の形態の説明に用いた各機能ブロックを制御し、入力端子と出力端子を備えてもよい。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサおよびメモリを用いて実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続又は設定を再構成可能なリコンフィギュラブル プロセッサ(Reconfigurable Processor)を利用してもよい。
さらには、半導体技術の進歩又は派生する別技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適用等が可能性としてありえる。
また、本明細書に記載された実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
1 制御装置
10 制御部
11 画像取得部
12 画像加工部
13 ランドマーク抽出部
14 検出有効領域設定部
15 タッチ判定面設定部
16 3D座標演算部
17 2D座標変換部
18 判定部
19 機能実行部
20 表示出力部
50 センサ
60 ディスプレイ

Claims (14)

  1. ユーザを撮像した画像を取得する画像取得部と、
    前記画像に基づいてユーザの腕部分を検出する検出部と、
    前記検出部により検出された前記ユーザの腕部分の位置および前記ユーザの腕部分の長さに基づいて、機器への操作を受け付ける仮想操作領域を設定する設定部と、
    前記画像に基づいて、前記ユーザの指先と、前記仮想操作領域との位置関係に基づいて機器を操作する操作部と、
    を備える情報処理装置。
  2. 前記設定部は、前記検出部により検出された前記ユーザの腕部分全体の長さに基づいて、前記仮想操作領域を設定する、請求項1に記載の情報処理装置。
  3. 前記設定部は、前記検出部により検出された前記ユーザの腕部分のうち、肘から手の長さに基づいて、前記仮想操作領域を設定する、請求項1に記載の情報処理装置。
  4. 前記検出部は、前記画像に基づいたユーザの視野範囲を検出し、
    前記設定部は、前記ユーザの視野範囲にさらに基づいて前記仮想操作領域を設定する、請求項1に記載の情報処理装置。
  5. 前記設定部は、前記検出部により検出された前記ユーザの腕部分の位置および前記ユーザの腕部分の長さに基づいて、前記ユーザの指先の位置変更を検出する領域である検出領域を設定し、
    前記操作部は、前記画像に基づいて、前記ユーザの指先と、前記検出領域との位置関係に基づいて機器を操作する、
    請求項1に記載の情報処理装置。
  6. 前記検出部は、前記画像に基づいたユーザの視野範囲を検出し、
    前記設定部は、前記ユーザの視野範囲にさらに基づいて前記検出領域を設定する、請求項5に記載の情報処理装置。
  7. 前記検出部は、前記検出部により検出された複数のユーザの腕部分を検出し、
    前記設定部は、前記検出部により検出された前記複数のユーザの腕部分の長さに基づいて、それぞれのユーザの仮想操作領域を設定し、
    前記操作部は、前記画像に基づいて、前記複数のユーザのうちいずれかのユーザの指先と、優先度の高い前記仮想操作領域との位置関係に基づいて機器を操作する、請求項1に記載の情報処理装置。
  8. 前記操作部は、前記画像の内、前記ユーザが撮像されていない領域が除去された画像から前記ユーザの指先を検出し、検出した手と、前記仮想操作領域との位置関係に基づいて機器を操作する、請求項1に記載の情報処理装置。
  9. 前記機器は、複数並んで存在し、
    前記設定部は、前記機器のそれぞれの仮想操作領域を、ぞれぞれの仮想操作領域が重ならないように設定する、請求項1に記載の情報処理装置。
  10. 前記検出部は、ユーザの左右の腕部分を検出し、
    前記設定部は、前記ユーザの左右の腕部分の長さに基づいて、左右それぞれの仮想操作領域を設定する、請求項1に記載の情報処理装置。
  11. 前記設定部は、前記検出部により検出されたユーザの腕部分の長さと、前記ユーザの肩部分の位置とに基づいた球状の範囲に基づいて、前記仮想操作領域を設定する、請求項1に記載の情報処理装置。
  12. 撮像部と、情報処理装置と、表示部とを備える情報処理システムであって、
    前記撮像部は、ユーザを含む画像を撮像し、
    前記情報処理システムは、
    前記画像を取得する画像取得部と、
    前記画像に基づいてユーザの腕部分を検出する検出部と、
    前記検出部により検出されたユーザの腕部分の位置及び前記ユーザの腕部分の長さに基づいて、表示部への操作を受け付ける仮想操作領域を設定する設定部と、
    前記画像に基づいて、前記ユーザの指先と、前記仮想操作領域との位置関係に基づいて表示部を操作する操作部と、
    を備える、情報処理システム。
  13. 前記撮像部は、前記ユーザの位置と前記表示部との位置関係に基づいて配置されている、請求項12に記載の情報処理システム。
  14. 情報処理装置で実行する情報処理方法であって、
    ユーザを撮像した画像を取得する画像取得ステップと、
    前記画像に基づいてユーザの腕部分を検出する検出ステップと、
    前記検出ステップで検出したユーザの腕部分の位置及び前記ユーザの腕部分の長さに基づいて、機器への操作を受け付ける仮想操作領域を設定する設定ステップと、
    前記画像に基づいて、前記ユーザの指先と、前記仮想操作領域との位置関係に基づいて機器を操作する操作ステップと、
    を含む情報処理方法。
JP2022061012A 2022-03-31 2022-03-31 情報処理装置、情報処理システム、および情報処理方法 Pending JP2023151420A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022061012A JP2023151420A (ja) 2022-03-31 2022-03-31 情報処理装置、情報処理システム、および情報処理方法
PCT/JP2023/002885 WO2023188774A1 (ja) 2022-03-31 2023-01-30 情報処理装置、情報処理システム、および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022061012A JP2023151420A (ja) 2022-03-31 2022-03-31 情報処理装置、情報処理システム、および情報処理方法

Publications (1)

Publication Number Publication Date
JP2023151420A true JP2023151420A (ja) 2023-10-16

Family

ID=88200266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022061012A Pending JP2023151420A (ja) 2022-03-31 2022-03-31 情報処理装置、情報処理システム、および情報処理方法

Country Status (2)

Country Link
JP (1) JP2023151420A (ja)
WO (1) WO2023188774A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
CA2811868C (en) * 2010-09-22 2017-05-09 Shimane Prefectural Government Operation input apparatus, operation input method, and program
JP6029478B2 (ja) * 2013-01-30 2016-11-24 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム

Also Published As

Publication number Publication date
WO2023188774A1 (ja) 2023-10-05

Similar Documents

Publication Publication Date Title
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
US9645735B2 (en) Information processing device and information processing method
US20140253512A1 (en) Manipulation detection apparatus, manipulation detection method, and projector
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
CN108135658B (zh) 手术控制设备、手术控制方法及存储介质
US20180005424A1 (en) Display control method and device
JP2013061848A (ja) 非接触入力装置
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP2017191576A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7406875B2 (ja) 情報処理装置およびプログラム
JPWO2017029749A1 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2012208705A (ja) 画像操作装置、画像操作方法およびプログラム
JP5597064B2 (ja) 情報処理装置およびその方法
JP2017117373A (ja) 操作装置とその制御方法、及びプログラム
JPWO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023188774A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP7495651B2 (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
JP6579866B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP5456817B2 (ja) 表示制御装置、表示制御方法、情報表示システム及びプログラム
JP2017211723A (ja) 端末装置及びタッチパネルの制御プログラム
JP5499106B2 (ja) 表示制御装置、表示制御方法、情報表示システム、およびプログラム
JP2017027311A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2014182442A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240226