JP7097464B2 - 機能制御装置 - Google Patents

機能制御装置 Download PDF

Info

Publication number
JP7097464B2
JP7097464B2 JP2020569361A JP2020569361A JP7097464B2 JP 7097464 B2 JP7097464 B2 JP 7097464B2 JP 2020569361 A JP2020569361 A JP 2020569361A JP 2020569361 A JP2020569361 A JP 2020569361A JP 7097464 B2 JP7097464 B2 JP 7097464B2
Authority
JP
Japan
Prior art keywords
function
image
unit
information
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020569361A
Other languages
English (en)
Other versions
JPWO2020158042A1 (ja
Inventor
圭一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2020158042A1 publication Critical patent/JPWO2020158042A1/ja
Application granted granted Critical
Publication of JP7097464B2 publication Critical patent/JP7097464B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、端末等の機能を制御する機能制御装置に関する。
従来から、撮像によって得られた画像を用いてユーザに情報を提供する技術が提案されている。例えば、特許文献1には、撮像によって得られた画像を表示して、画像上の箇所の選択入力を受け付けて、当該箇所に写っている商品の情報を出力することが示されている。
特開2017-59272号公報
しかしながら、上述した特許文献1に示される技術は、必ずしも容易に実現でき利便性が高いとは言えない。例えば、スマートグラスといった眼鏡型の装置では、表示された画像の位置をユーザが指定するためには、視線の検出等の特別な構成が必要になる。また、特許文献1に示される技術は、商品の情報を出力する機能を有するのみである。
本発明の一実施形態は、上記に鑑みてなされたものであり、容易に利便性の高い機能をユーザに提供することができる機能制御装置を提供することを目的とする。
上記の目的を達成するために、本発明の一実施形態に係る機能制御装置は、画像を取得する画像取得部と、画像取得部によって取得された画像に写った、位置を指定するための指定物体の画像上の位置を特定する指定物体特定部と、画像取得部によって取得された画像において、指定物体特定部によって特定された位置に応じた位置に写ったオブジェクトの種別を識別するオブジェクト識別部と、オブジェクト識別部によって識別されたオブジェクトの種別に応じた機能を実行するように制御する機能制御部と、を備え、画像取得部は、時系列の複数の画像を取得し、オブジェクト識別部は、画像取得部によって取得された時系列の画像に写ったオブジェクトを識別し、機能制御部は、指定物体特定部によって特定された位置に応じた位置に写ったオブジェクトの種別と、当該オブジェクトの種別が識別された画像の前の画像から識別されたオブジェクトとの組み合わせに応じた機能を実行するように制御する
本発明の一実施形態に係る機能制御装置では、画像に写った指定物体の位置が特定されて、当該位置に応じた位置に写ったオブジェクトの種別に応じた機能が実行されるように制御される。従って、本発明の一実施形態に係る機能制御装置によれば、視線の検出等による画像に対する位置の指定を行うことなく機能を実行させることができる。また、オブジェクトの種別に応じた機能を実行させることができる。即ち、本発明の一実施形態に係る機能制御装置によれば、容易に利便性の高い機能をユーザに提供することができる。
本発明の一実施形態によれば、視線の検出等による画像に対する位置の指定を行うことなく機能を実行させることができる。また、オブジェクトの種別に応じた機能を実行させることができる。即ち、本発明の一実施形態によれば、容易に利便性の高い機能をユーザに提供することができる。
本発明の実施形態に係る機能制御装置である端末の構成を示す図である。 端末において実行される機能の例を示す図である。 端末において実行される機能の例を示す図である。 端末において実行される機能の例を示す図である。 端末において実行される機能の例を示す図である。 本発明の実施形態に係る機能制御装置である端末で実行される処理を示すフローチャートである。 本発明の実施形態に係る機能制御装置である端末のハードウェア構成を示す図である。
以下、図面と共に本発明に係る機能制御装置の実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1に本実施形態に係る機能制御装置である端末10を示す。端末10は、ユーザによって用いられる情報処理装置であり、情報処理によってユーザに機能を提供する。端末10は、例えば、スマートグラスといった眼鏡型の装置であり、ユーザの目の部分に装着されて用いられる。端末10は、カメラ(例えば、RGBカメラ)を有しており、撮像を行うことができる。カメラは、例えば、端末10がユーザに装着された際にユーザの視線と撮像方向とが同様になるように端末10に設けられている。端末10は、ディスプレイを有しており、情報を表示することができる。ディスプレイは、例えば、スマートグラスのレンズに相当する部分に設けられた透過型のディスプレイであり、ユーザが装着した状態でディスプレイによる表示を見ることができる。
端末10によってユーザに提供される機能は、情報の提供及び外部の装置の操作等である。図2及び図3を用いて、端末10によってユーザに提供される機能の例を説明する。図2(a)に示すように、カメラによって撮像されている(即ち、ユーザが見ている(以下同様))人物Pにユーザが手Hをかざすと当該人物Pの情報I(例えば、名前、勤務先、最後に出会った日)をディスプレイに表示する。図2(b)に示すように、カメラによって撮像されている飲食店(例えば、レストラン、喫茶店)にユーザが手Hをかざすと当該飲食店Rの情報I(例えば、評価を示す情報)をディスプレイに表示する。図2(c)に示すように、カメラによって撮像されている文字列Tにユーザが手Hをかざすと当該文字列Tの翻訳結果を示す情報Iをディスプレイに表示する。図2(d)に示すように、カメラによって撮像されている駅Sにユーザが手Hをかざすと当該駅Sに係る時刻表の情報Iをディスプレイに表示する。
図3(a)に示すように、カメラによって撮像されている商品Gにユーザが手Hをかざすと当該商品Gの値段の情報I(例えば、小売店毎の値段を比較した情報)をディスプレイに表示する。図3(b)に示すように、カメラによって撮像されている食べ物Fにユーザが手Hをかざすと当該食べ物Fの情報I(例えば、栄養成分を示す情報)をディスプレイに表示する。図3(c)に示すように、カメラによって撮像されている家電Eにユーザが手Hをかざすと当該家電Eを操作するためのリモコンの情報Iをディスプレイに表示する。
引き続いて、本実施形態に係る端末10の機能を説明する。図1に示すように端末10は、撮像部11と、表示部12と、画像取得部13と、指定物体特定部14と、オブジェクト識別部15と、機能制御部16とを備えて構成される。また、端末10は、上述したユーザの手Hがかざされたオブジェクトに応じた機能を実行するための機能部(図示せず)を有している。
撮像部11は、撮像によって画像を取得する機能部である。撮像部11は、端末10が備える上述したカメラによって実現される。カメラとしては、従来のスマートグラスに備えられるものを用いることができる。また、赤外線によって撮像を行うカメラを用いてもよい。撮像部11は、常時、撮像を行って撮像によって得られた画像を画像取得部13に出力する。
表示部12は、表示を行う機能部である。表示部12は、端末10が備える上述したディスプレイによって実現される。表示部12による表示は、上述したようにユーザに提供される端末10の機能としても行われる。
画像取得部13は、画像を取得する機能部である。画像取得部13は、撮像部11から画像を入力して取得する。画像取得部13は、時系列の複数の画像を取得する。画像取得部13は、入力した画像を指定物体特定部14及びオブジェクト識別部15に入力する。
指定物体特定部14は、画像取得部13によって取得された画像に写った、位置を指定するための指定物体の画像上の位置を特定する機能部である。指定物体特定部14は、指定物体の画像上の位置として、ユーザの手の画像上の位置を特定してもよい。指定物体特定部14は、指定物体の形状を認識してもよい。
指定物体特定部14は、画像取得部13から画像を入力する。指定物体特定部14は、入力した画像からユーザの手を認識する。ユーザの手の認識は、従来の方法によって行われる。例えば、ユーザの手の特徴を示す情報を予め記憶しておき、当該情報を用いてユーザの手を認識する。指定物体特定部14は、認識したユーザの手の特定の位置、例えば、中指の先端の位置を指定物体の画像上の位置として特定する。指定物体特定部14は、例えば、ユーザの手の画像上の位置を画像における座標として特定する。指定物体特定部14は、特定した位置を示す情報、例えば、画像における座標を示す情報をオブジェクト識別部15に出力する。
指定物体特定部14は、ユーザの手の形状も認識することとしてもよい。例えば、図2及び図3に示すように指を伸ばした状態の手の形状と、図4に示すように指を握った状態の手の形状とを区別して認識することとしてもよい。形状の認識も従来の方法によって行えばよい。なお、認識対象となる手の形状は、予め設定されて端末10に記憶されている。形状を認識する場合、指定物体特定部14は、認識した形状を示す情報を機能制御部16に出力する。
なお、位置を指定するための指定物体は、予め設定されて端末10に記憶されている。当該指定物体は、必ずしもユーザの手である必要はなく、画像上の位置を指定するのに適したものであればよい。
オブジェクト識別部15は、画像取得部13によって取得された画像において、指定物体特定部14によって特定された位置に応じた位置に写ったオブジェクトの種別を識別する機能部である。オブジェクト識別部15は、画像取得部13によって時系列の画像が取得される場合には、当該時系列の画像に写ったオブジェクトを識別する。
オブジェクト識別部15は、画像取得部13から画像を入力する。オブジェクト識別部15は、指定物体特定部14から、当該画像から特定されたユーザの手の画像上の位置を示す情報を入力する。オブジェクト識別部15は、当該画像において、ユーザの手の位置に応じた位置に写ったオブジェクトを識別(認識)する。例えば、オブジェクト識別部15は、ユーザの手の位置の周囲のユーザの手以外の部分に写ったオブジェクトを識別する。即ち、オブジェクト識別部15は、画像においてユーザの手が重畳しているオブジェクトを識別する。オブジェクトの識別は、従来の方法によって行われる。例えば、識別対象のオブジェクトの特徴を示す情報を予め記憶しておき、当該情報を用いてオブジェクトを識別する。識別対象のオブジェクトは、図2及び図3に示すように、人物、飲食店等の店舗の外観、予め設定された言語の文字列、駅、商品、食べ物、家電及び花等である。
オブジェクト識別部15は、識別対象のオブジェクトが具体的にどのようなオブジェクトであるかも識別(認識)する。例えば、識別されるオブジェクトが人物である場合には、その人物が誰かまで識別する。あるいは、識別されるオブジェクトが店舗である場合には、その店舗が何という店の店舗かまで識別する。但し、識別されるオブジェクトの種別によっては、個々のオブジェクトがどのようなものかを識別する必要はなく、オブジェクトの種別のみを識別してもよい。このようにオブジェクト識別部15は、画像に写ったオブジェクトの種別を識別する。オブジェクト識別部15は、識別したオブジェクトに係る情報を機能制御部16に出力する。
機能制御部16は、オブジェクト識別部15によって識別されたオブジェクトの種別に応じた機能を実行するように制御する機能部である。例えば、機能制御部16は、オブジェクトの種別に応じた機能の一つとして、オブジェクトに係る情報を出力する機能を実行するように制御する。あるいは、機能制御部16は、オブジェクトの種別に応じた機能の一つとして、オブジェクトが文字列である場合に当該文字列を翻訳する機能を実行するように制御する。あるいは、機能制御部16は、オブジェクトの種別に応じた機能の一つとして、オブジェクトを操作するための表示を行う機能を実行するように制御する。具体的には、機能制御部16は、以下のように制御を行う。
機能制御部16は、予めオブジェクト識別部15によって識別されたオブジェクトの種別毎に実行する機能を記憶している。即ち、機能制御部16は、オブジェクトの種別に応じた複数の異なる機能を記憶している。例えば、図2(a)に示すように人物Pのオブジェクトの種別に対しては、人物Pの情報を表示するとの機能を対応付けて記憶している。あるいは、図2(c)に示すように予め設定された言語の文字列Tのオブジェクトの種別に対しては、文字列Tを予め設定した別の言語に翻訳して表示するとの機能を対応付けて記憶している。あるいは、図3(c)に示すように家電Eのオブジェクトの種別に対しては、当該家電Eを操作するための表示を行うとの機能を対応付けて記憶している。当該表示を用いた家電Eの操作は、例えば、上述したオブジェクトの指定と同様に行われればよい。上記のように機能制御部16は、オブジェクトに応じたUI(ユーザインタフェース)を表示することとしてもよい。それぞれの機能を実行するための機能部は、予め端末10に備えられている。
機能制御部16は、オブジェクト識別部15から識別したオブジェクトに係る情報を入力する。機能制御部16は、オブジェクト識別部15から入力した情報によって示されるオブジェクトの種別に対応付けて記憶した機能を実行するものと判断する。機能制御部16は、上記の機能部に対して、判断した機能を実行するように指示する。機能の実行にオブジェクト自体の情報が必要である場合には、機能制御部16は、オブジェクト識別部15から入力した情報によって特定されるオブジェクト(例えば、どの人物か、どの店舗かの情報)を機能部に通知し、当該オブジェクトに応じて機能が実行されるようにする。
指示を受けた機能部は当該機能を実行する。当該機能の実行によって図2及び図3に示すような表示部12による表示等が行われる。また、表示部12よる表示の際に指定物体特定部14によって特定されたユーザの手の画像上の位置が用いられてもよい。例えば、図2及び図3に示すようにユーザの手の位置の近くに吹き出し状の表示を行ってもよい。なお、オブジェクトの種別に応じた機能としては、必ずしも表示部12への表示を行うものである必要はない。例えば、情報の表示ではなく音声出力を行ってもよい。
また、機能制御部16は、指定物体特定部14によって識別されたユーザの手の形状にも応じた機能を実行するように制御してもよい。この場合、機能制御部16は、指定物体特定部14から認識された手の形状を示す情報を入力する。機能制御部16は、オブジェクトの種別及び手の形状毎に実行する機能を記憶している。例えば、図2(b)に示すように店舗とのオブジェクトの種別及び指を伸ばした状態の手の形状に対しては、店舗の評価を示す情報を表示するとの機能を対応付けて記憶している。また、図4に示すように店舗とのオブジェクトの種別及び指を握った状態の手の形状に対しては、店舗のクーポンの情報を表示するとの機能を対応付けて記憶している。機能制御部16は、オブジェクト識別部15から入力した情報によって示されるオブジェクトの種別及び指定物体特定部14から入力された情報によって示される手の形状の組み合わせに対応付けて記憶した機能を実行するものと判断する。
オブジェクト識別部15は、指定物体特定部14からの情報の入力の有無にかかわらず、画像取得部13から入力される画像毎にオブジェクトの識別を行うこととしてもよい。指定物体特定部14からの情報の入力があった場合には、オブジェクト識別部15は、ユーザの手の位置に応じた位置以外の任意の位置に写ったオブジェクトを識別してもよい。指定物体特定部14からの情報の入力がなかった場合、即ち、指定物体特定部14によって画像からユーザの手が認識されなかった場合には、オブジェクト識別部15は、画像の任意の箇所に写ったオブジェクトを識別してもよい。オブジェクト識別部15は、時系列の画像から識別されたオブジェクトに係る情報を機能制御部16に出力する。
上記のオブジェクト識別部15による識別に基づき、機能制御部16は、オブジェクト識別部15によって識別された時系列のオブジェクトにも応じた機能を実行するように制御してもよい。機能制御部16は、時系列のオブジェクトの識別結果に応じて実行する機能を記憶している。機能制御部16は、当該記憶した情報に基づいて実行する機能を決定する。例えば、図5に示すようにオブジェクトとして冷蔵庫Rが識別された後予め設定された期間内に、ユーザの手の位置に応じた位置のオブジェクトとして食材(例えば、野菜)Cが識別された場合には、当該食材Cに対応付けられたレシピの情報Iを表示させる。なお、冷蔵庫Rが識別される画像からは、ユーザの手Hが識別される必要はない。これによって、図3(a)に示すようにスーパーマーケット等の店舗において商品としての食材が識別された場合と異なる、場面にあった機能を提供することができる。また、スーパーマーケット等の店舗が識別された後予め設定された期間内に、ユーザの手の位置に応じた位置のオブジェクトとして食材(例えば、野菜)が識別された場合には、(上記のようにレシピではなく)当該店舗における特売に係る情報を表示させることとしてもよい。
また、この場合にも、機能制御部16は、ユーザの手の形状にも応じた機能を実行するように制御してもよい。例えば、図5に示すように指を伸ばした状態の手の形状である場合にレシピを表示させることとしてもよい。更に機能制御部16は、時系列の手の形状から手のジェスチャーを認識して、ジェスチャーに応じた機能を実行するように制御してもよい。
オブジェクト識別部15は、指定物体特定部14からの情報の入力の有無にかかわらず、画像取得部13から入力される画像からオブジェクトの識別を行う場合、画像に写ったオブジェクトの画像上の位置(領域)を特定し、画像が撮像される装置、即ち端末10において、当該位置を示す情報が表示部12によって出力されるよう制御してもよい。例えば、図5においてオブジェクトとして様々な食材が識別された場合に、当該食材の位置を示す情報として当該識別された位置(領域)を示すアウトライン(枠)Oの表示を行う。例えば、ディスプレイによる表示がユーザによる視線による視界に重なるようにし、現実の食材の部分にアウトラインOが表示されるようにする。あるいは、オブジェクトにアウトラインOを重ねた画像自体をディスプレイに表示することとしてもよい。アウトラインOを表示するオブジェクトは、機能(例えば、表示される情報)が対応付けられたものとする。このようにアウトラインOを表示することで、ユーザがどの位置に手をかざせば機能が実行されるか把握することができる。なお、食材の位置を示す情報の表示は、上記のアウトラインOの表示に限られず任意のものであってもよい。
また、機能の制御は、画像が撮像された地理的な位置にも基づいて行われてもよい。そのために端末10は、画像取得部13によって取得される画像が撮像された地理的な位置を示す位置情報を取得する位置情報取得部を更に備えていてもよい。位置情報は、例えば、当該位置の緯度及び経度を示す情報である。位置情報取得部は、例えば、端末10が備えるGPS(グローバルポジショニングシステム)測位機能によって実現される。また、GPS測位機能以外の測位機能によっても実現されてもよい。位置情報取得部は、撮像部11によって画像が撮像される際に測位を行って、自端末10の地理的な位置を示す位置情報を取得する。位置情報取得部は、取得した位置情報を画像に対応付けて機能制御部16に出力する。
機能制御部16は、位置情報取得部によって取得された位置情報にも応じた機能を実行するように制御する。例えば、オブジェクト識別部15が、オブジェクトの識別によって図4に示すような飲食店のチェーン(チェーン店のグループ)を特定する。チェーンの特定は、例えば、当該チェーンにおいて共通して用いられている店舗の看板を識別することで特定することができる。機能制御部16は、チェーンにおける店舗毎の位置情報を予め記憶しておく。機能制御部16は、オブジェクト識別部15によって特定されたチェーンの店舗の位置と、位置情報取得部によって取得された位置情報によって示される位置とを照合して、機能制御部16は、画像に係るチェーンの店舗を特定する。例えば、チェーンの複数の店舗のうち、それらの位置の差が予め設定した閾値以下の店舗を、画像に係るチェーンの店舗として特定する。
機能制御部16は、予めチェーンの店舗毎に実行する機能を記憶している。例えば、機能制御部16は、店舗毎のクーポンの情報を表示するとの機能を記憶している。機能制御部16は、特定した店舗の機能を実行するように制御する。これによって、例えば上述したように店舗毎のクーポン等の店舗毎の表示を行うことができる。
また、この場合にも、機能制御部16は、ユーザの手の形状にも応じた機能を実行するように制御してもよい。例えば、図4に示すように指を握った状態の手の形状である場合にクーポンを表示させることとしてもよい。更に機能制御部16は、時系列の手の形状から手のジェスチャーを認識して、ジェスチャーに応じた機能を実行するように制御してもよい。以上が、本実施形態に係る端末10の機能である。
引き続いて、図6のフローチャートを用いて、本実施形態に係る端末10で実行される処理(端末10が行う動作方法)を説明する。本処理では、撮像部11によって撮像が行われ、撮像によって得られた画像が画像取得部13によって取得される(S01)。続いて、指定物体特定部14によって、当該画像に写ったユーザの手の画像上の位置が特定される(S02)。続いて、オブジェクト識別部15によって、当該画像において、指定物体特定部14によって特定された位置に応じた位置に写ったオブジェクトの種別が識別される(S03)。続いて、機能制御部16によって、オブジェクト識別部15によって識別されたオブジェクトの種別に応じた機能が実行されるように制御される(S04)。当該制御によって図2及び図3に示すような表示部12による表示等が行われる。以上が、本実施形態に係る端末10で実行される処理である。
本実施形態では、画像に写ったユーザの手等の指定物体の位置が特定されて、当該位置に応じた位置に写ったオブジェクトの種別に応じた機能が実行されるように制御される。従って、本実施形態によれば、視線の検出等による画像に対する位置の指定を行うことなく機能を実行させることができる。即ち、端末10が、画像を得るためのカメラ(例えば、RGBカメラ)を有していれば、本実施形態を実施することができる。従って、本実施形態によれば、視線の検出等の画像に対する位置の指定を行うためのハードウェアを必要とせずに指定したオブジェクトに応じた機能を実行させることができる。また、オブジェクトの種別に応じた機能を実行させることができる。例えば、上述したようにオブジェクトが人物であれば人物の情報を提供し、オブジェクトが飲食店であれば評価を示す情報を提供することができる。あるいは、文字列の翻訳、家電の操作等の機能を提供することができる。このように本実施形態によれば容易に利便性の高い機能をユーザに提供することができる。
また、上述したように指定物体をユーザの手としてもよい。この構成によれば、適切かつ確実に本発明の実施形態を実施することができる。また、ユーザが、容易に本発明の実施形態に係る機能を利用することができる。但し、上述したように指定物体としては、ユーザの手以外の予め設定された任意のものが用いられてもよい。
また、上述したように地理的な位置を示す位置情報に応じた機能が実行されるように制御されてもよい。この構成によれば、店舗の地理的な位置等を考慮した機能の提供が可能となる。但し、位置情報が用いられなくてもよい。
また、上述したように指定物体の形状、例えば、ユーザの手の形状に応じた機能が実行されるように制御されてもよい。この構成によれば、指定物体の形状に応じた機能の提供が可能となり、ユーザの利便性及び操作性を向上させることができる。但し、指定物体の形状が用いられなくてもよい。
また、上述したように時系列のオブジェクトに応じた機能が実行されるように制御されてもよい。この構成によれば、場面に応じた機能の提供が可能となり、ユーザの利便性を向上させることができる。但し、時系列のオブジェクトが用いられなくてもよい。
また、上述したようにオブジェクトのアウトラインOが表示されるようにされてもよい。この構成によれば、ユーザがオブジェクトを指定しやすくすることができ、ユーザの利便性を向上させることができる。但し、オブジェクトのアウトラインOの表示が行われなくてもよい。
また、上述したように実行される機能としては、オブジェクトに係る情報の出力、文字列の翻訳及びオブジェクトを操作するための表示(例えば、リモコンの表示)の何れかを含んでいてもよい。この構成によれば、ユーザにとって有益な機能を提供することができる。但し、実行される機能としては、上記のものに限られず、オブジェクトの種別に応じたものであればどのような機能であってもよい。
なお、上述した実施形態では、端末10は、スマートグラスといった眼鏡型の装置であることとしたが、必ずしもこのような形態の装置に限られない。端末10は、撮像を行うことができ、撮像によって得られた画像に基づいて上述した機能の制御を行うものであればよい。例えば、端末10は、スマートフォンのような装置であってもよい。
また、上述した実施形態では、実施形態に係る機能制御装置は、端末10であり、端末10自身の機能を制御するものであることとしたが、自身以外の機能を制御するものであってもよい。例えば、機能制御装置は、端末と通信可能なサーバであり、端末の機能を制御するものであってもよい。例えば、当該サーバは、端末によって撮像された画像を端末から受信して、上述したように当該画像に基づいて端末の機能を制御する、例えば、端末に対して実行する機能を示す情報を送信することとしてもよい。また、上述した端末10の一部の機能が、端末以外の装置、例えば、端末10と通信可能なサーバで実行されてもよい。
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
例えば、本開示の一実施の形態における端末10は、本開示の情報処理を行うコンピュータとして機能してもよい。図7は、本開示の一実施の形態に係る端末10のハードウェア構成の一例を示す図である。上述の端末10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。また、端末10は、上記以外にも、上述したカメラ等の本実施形態の機能を実現するハードウェアを備える。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。端末10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
端末10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の端末10における各機能は、プロセッサ1001によって実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、端末10における各機能は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。端末10が備える上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
また、端末10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
10…端末、11…撮像部、12…表示部、13…画像取得部、14…指定物体特定部、15…オブジェクト識別部、16…機能制御部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス。

Claims (1)

  1. 画像を取得する画像取得部と、
    前記画像取得部によって取得された画像に写った、位置を指定するための指定物体の画像上の位置を特定する指定物体特定部と、
    前記画像取得部によって取得された画像において、前記指定物体特定部によって特定された位置に応じた位置に写ったオブジェクトの種別を識別するオブジェクト識別部と、
    前記オブジェクト識別部によって識別されたオブジェクトの種別に応じた機能を実行するように制御する機能制御部と、
    を備え
    前記画像取得部は、時系列の複数の画像を取得し、
    前記オブジェクト識別部は、前記画像取得部によって取得された時系列の画像に写ったオブジェクトを識別し、
    前記機能制御部は、前記指定物体特定部によって特定された位置に応じた位置に写ったオブジェクトの種別と、当該オブジェクトの種別が識別された画像の前の画像から識別されたオブジェクトとの組み合わせに応じた機能を実行するように制御する、機能制御装置。
JP2020569361A 2019-01-30 2019-09-20 機能制御装置 Active JP7097464B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019014370 2019-01-30
JP2019014370 2019-01-30
PCT/JP2019/037145 WO2020158042A1 (ja) 2019-01-30 2019-09-20 機能制御装置

Publications (2)

Publication Number Publication Date
JPWO2020158042A1 JPWO2020158042A1 (ja) 2021-10-21
JP7097464B2 true JP7097464B2 (ja) 2022-07-07

Family

ID=71841029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020569361A Active JP7097464B2 (ja) 2019-01-30 2019-09-20 機能制御装置

Country Status (2)

Country Link
JP (1) JP7097464B2 (ja)
WO (1) WO2020158042A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060579A (ja) 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
WO2018008096A1 (ja) 2016-07-05 2018-01-11 マクセル株式会社 情報表示装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060579A (ja) 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
WO2018008096A1 (ja) 2016-07-05 2018-01-11 マクセル株式会社 情報表示装置およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田中 舜一,手を向ける動作を機器指定に用いた家電機器操作手法,2015年03月31日,第15頁-第23頁,[online],[令和元年10月9日検索],インターネット<URL:https://www.iplab.cs.tsukuba.ac.jp/paper/master/2014/tanakashun_master.pdf>

Also Published As

Publication number Publication date
JPWO2020158042A1 (ja) 2021-10-21
WO2020158042A1 (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
CN109478124B (zh) 增强现实装置及增强现实方法
US20160070439A1 (en) Electronic commerce using augmented reality glasses and a smart watch
US9760778B1 (en) Object recognition and navigation from ongoing video
US11126848B2 (en) Information processing device, information processing method, and information processing program
US20220157028A1 (en) Mobile device image item replacements
US10652041B2 (en) Computer vision based activation
CN106030578B (zh) 搜索系统以及搜索系统的控制方法
US20160171581A1 (en) Apparatus and method for locating products in a retail store using a mobile device
JP7097464B2 (ja) 機能制御装置
KR20160023208A (ko) 미러 디스플레이 장치 및 그의 동작 방법
JP6869809B2 (ja) 画像推定装置
CN109889655A (zh) 移动装置与用于建立无线链路的方法
US11836978B2 (en) Related information output device
CN110832525A (zh) 在对象上的增强现实广告
KR102477841B1 (ko) 상품 검색 장치, 서버 및 검색 시스템의 제어 방법
JP2017146942A (ja) 画像表示装置、表示制御方法および表示制御プログラム
JP6586904B2 (ja) 画像表示装置、表示制御方法および表示制御プログラム
WO2023074817A1 (ja) コンテンツ提供装置
JP2017220186A (ja) 関連ストーリ出力制御プログラム、関連ストーリ出力制御方法および情報処理装置
WO2021172221A1 (ja) オブジェクト認識システム及び受信端末
JP7402322B2 (ja) 情報処理システム
JP2019204427A (ja) サーバ装置、及びプログラム
WO2017208351A1 (ja) 撮像画像共有システム、撮像画像共有方法及びプログラム
US20240289080A1 (en) Display control device
JP7194158B2 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7097464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150