JP2014056343A - 携帯端末装置、プログラムおよび状況検知方法 - Google Patents

携帯端末装置、プログラムおよび状況検知方法 Download PDF

Info

Publication number
JP2014056343A
JP2014056343A JP2012199815A JP2012199815A JP2014056343A JP 2014056343 A JP2014056343 A JP 2014056343A JP 2012199815 A JP2012199815 A JP 2012199815A JP 2012199815 A JP2012199815 A JP 2012199815A JP 2014056343 A JP2014056343 A JP 2014056343A
Authority
JP
Japan
Prior art keywords
operator
terminal device
movement
subject
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012199815A
Other languages
English (en)
Other versions
JP6108732B2 (ja
Inventor
Motoyasu Tanaka
基康 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2012199815A priority Critical patent/JP6108732B2/ja
Priority to US14/426,875 priority patent/US9747871B2/en
Priority to PCT/JP2013/074354 priority patent/WO2014042143A1/ja
Publication of JP2014056343A publication Critical patent/JP2014056343A/ja
Application granted granted Critical
Publication of JP6108732B2 publication Critical patent/JP6108732B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Telephone Function (AREA)

Abstract

【課題】携帯端末装置を操作する操作者の状況を検出するための新たな手法を提供する。
【解決手段】操作者によって操作される携帯端末装置1に、周囲を撮像した画像データ160を取得する撮像部15および画像信号処理部16と、取得された画像データ160から操作者の顔を表現した顔部データ122を除いた部分である検出対象データ121に基づいて、画像データ160における被写体の動きを検出する検出部101と、検出部101により検出された被写体の動きに応じて、操作者の状況を判定する状況判定部102とを設ける。
【選択図】図3

Description

本発明は、携帯端末装置の状況を検知する技術に関する。
昨今、携帯電話、スマートフォン、電子書籍閲覧端末など、ユーザによって携帯されることを想定したコンピュータ(以下、「携帯端末装置」と総称する。)が広く普及している。また、コンピュータにより提供されるアプリケーションとして、バーチャルリアリティ(仮想現実)を駆使したアプリケーションも出現している。バーチャルリアリティを用いたアプリケーションでは、携帯端末装置が操作者に携帯されることを利用して、現実の操作者の動きを携帯端末装置の動きによって検出し、当該操作者の動きに応じた仮想世界における視野(ディスプレイへの表示)を提供するものがある。また、携帯端末装置の動きから操作者の動きを推定して、道案内のための地図を操作者の動きに合わせてリアルタイムに動かしながら表示するアプリケーションも登場している。このようなアプリケーションでは、いかに携帯端末装置の動きを正確に検出できるかが重要である。
従来より、携帯端末装置の動きを検出する技術として、GPSや加速度センサ(例えば特許文献1)、回転センサ等を用いる技術が知られている。また、携帯端末装置において撮像した画像によって携帯端末装置の動きを検出する技術も登場している。例えば、特許文献2には、携帯端末装置を利用している人の顔を検出して、当該人の顔の軸に対応する向きにディスプレイ上の表示方向を決定する技術が記載されている。すなわち、携帯端末装置とユーザの顔の軸との相対的な位置関係を、撮像されたユーザの顔を検出することにより判別して、ディスプレイ上の表示方向を自動的に変更するための情報とするのである。
特開2012−058847号公報 特開2011−258191号公報
ところが、GPSでは、地下街や屋内など、GPS信号を受信することが困難な場所では、正確な動き検出ができないという問題があった。また、GPSでは、検出精度(1m程度)が低く、電子書籍の閲覧ソフトなどのように、小さな動き(数10cm〜数cm程度)を検出対象とすることはできず、アプリケーションが限定されるという問題もあった。また、加速度センサ(加速度センサを用いる回転センサを含む。)は、乗り物内など携帯端末装置の動き以外の物体の動きに影響されるため、例えば操作者と携帯端末装置との相対的な動きを検出しようとするアプリケーションにおいて状況により利用できないという問題があった。また、磁気センサを用いる回転センサであれば、周囲の磁気の影響による検出精度の低下という問題があった。さらに、撮像された顔の画像から表示方向を決定する技術では、複雑な動きを検出することはできず、利用範囲(表示方向を決定するだけ)が限られるという問題があった。
このように、携帯端末装置の動きを正確に検出するには、いずれかの技術を採用すれば万全ということはなく、当該携帯端末装置が置かれている状況を見極めて、状況に応じた検出手法を正しく採用することが必要である。また、携帯端末装置(操作者)の状況を見極めるためにも、一つの方法で充分ではなく、様々な方法を重畳的に用いて、相補的に検出する必要がある。
本発明は、上記課題に鑑みてなされたものであり、携帯端末装置を操作する操作者の状況を検出するための新たな手法を提供することを目的とする。
上記の課題を解決するため、請求項1の発明は、操作者によって操作される携帯端末装置であって、周囲を撮像した画像データを取得する画像取得手段と、前記画像取得手段により取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記画像データにおける被写体の動きを検出する検出手段と、前記検出手段により検出された被写体の動きに応じて、前記操作者の状況を判定する状況判定手段とを備える。
また、請求項2の発明は、請求項1の発明に係る携帯端末装置であって、前記状況判定手段により判定された操作者の状況に応じて、前記携帯端末装置の動作を制御する制御手段をさらに備える。
また、請求項3の発明は、請求項1または2の発明に係る携帯端末装置であって、前記操作者の状況には、操作者が歩行中であるか否かが含まれる。
また、請求項4の発明は、請求項1ないし3のいずれかの発明に係る携帯端末装置であって、前記操作者の状況には、操作者が乗り物による移動中であるかが含まれる。
また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る携帯端末装置であって、前記検出手段は、前記画像取得手段により取得された画像データから前記操作者以外の人物を表現した人物データを除いた部分である検出対象データに基づいて、前記被写体の動きを検出する。
また、請求項6の発明は、請求項1ないし5のいずれかの発明に係る携帯端末装置であって、前記検出手段は、前記被写体の動きの前後における検出対象データに基づいて各画素の移動量を検出する。
また、請求項7の発明は、請求項6の発明に係る携帯端末装置であって、前記検出手段は、検出された各画素の移動量に基づいて、前記各画素の移動量ごとの画素数を求め、画素数が最も多い前記各画素の移動量に応じて、前記被写体の動きを検出する。
また、請求項8の発明は、コンピュータ読み取り可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、周囲を撮像した画像データを取得する画像取得手段と、前記画像取得手段により取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記画像データにおける被写体の動きを検出する検出手段と、前記検出手段により検出された被写体の動きに応じて、前記操作者の状況を判定する状況判定手段とを備える携帯端末装置として機能させる。
また、請求項9の発明は、携帯端末装置の状況を検知する状況検知方法であって、周囲を撮像した画像データを取得する工程と、取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記画像データにおける被写体の動きを検出する工程と、検出された被写体の動きに応じて、前記操作者の状況を判定する工程とを有する。
請求項1ないし9に記載の発明は、取得された画像データから操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、当該画像データにおける被写体の動きを検出し、検出された被写体の動きに応じて、操作者の状況を判定することにより、加速度センサを搭載していなくても、あるいは加速度センサの出力が信用できない状況であっても、操作者の状況を検出できる。
携帯端末装置の外観を例示する図である。 携帯端末装置のブロック図である。 携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 携帯端末装置の検知モードにおける動作を例示する流れ図である。 携帯端末装置の検知モードにおける動作を例示する流れ図である。 画像データの例を示す図である。
以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。
<1. 実施の形態>
図1は、携帯端末装置1の外観を例示する図である。また、図2は、携帯端末装置1のブロック図である。図1に示すように、携帯端末装置1は、操作者による携帯が可能なように設計された装置であり、当該操作者によって操作される。
携帯端末装置1は、各種情報を処理しつつ、制御信号を生成することによって携帯端末装置1が備える各構成を制御するCPU10と、CPU10によって実行されるプログラム110を格納するROM11と、CPU10の一時的なワーキングエリアとして使用されるRAM12とを備えている。これにより、携帯端末装置1は、一般的なコンピュータとしての構成および機能を有している。
なお、CPU10の動作および機能については、後述する。また、RAM12は、CPU10によるデータの読み書きが可能な記憶装置を代表して例示するものであって、携帯端末装置1が備える記憶装置を比較的小容量の高速アクセス可能な記憶装置(すなわちRAM12)に限定するものではない。携帯端末装置1は、RAM12以外にも、不揮発性の記憶装置や比較的低速でしかアクセスできない記憶装置、大容量の記憶装置等を備えていてもよいし、あるいは、着脱可能な可搬性の記憶媒体を利用することが可能なように構成されていてもよい。
また、携帯端末装置1は、操作部13、表示部14、撮像部15、および、画像信号処理部16を備えている。
操作部13は、操作者によって操作されるボタン類やキー、スイッチなどである。例えば、操作部13は、携帯端末装置1の電源を投入する電源ボタンなどを備えている。また、操作部13は、後述する表示部14の表面に配置されるタッチパネルを備えており、操作者が表示部14の画面(すなわちタッチパネル)に触れることにより、指示を入力することが可能となっている。
表示部14は、操作者に対して各種の情報を表示する機能を有している。表示部14としては、例えば、液晶パネルやランプ、LEDなどが該当する。
撮像部15は、詳細は図示しないが、レンズなどの光学素子と、CCDなどの光電変換素子とを備えている。撮像部15は、レンズから入射した光をデジタル電気信号に変換して画像信号処理部16に伝達する機能を有している。本実施の形態における撮像部15は、例えば図1に示す位置に設けられており、表示部14を注視(閲覧)している操作者を、その撮像範囲に含むように構成されている。言い換えれば、本実施の形態における携帯端末装置1では、操作者が表示部14を通常の姿勢で注視しているときに撮像される画像データ160には操作者が被写体として撮像される。
なお、第1の実施の形態における撮像部15は、市場に広く流通しているいわゆるデジタルカメラを構成しており、ある瞬間におけるカラー写真(映像)を撮像する機能を有しているが、本発明を実施するためには、カラー写真のように人間の目によって被写体を認識する画像を撮像する機能までは必要ない。すなわち、被写体と携帯端末装置1との相対的な距離や向きの変化を被写体から照射される光(可視光線とは限らない。)を捉えることにより検出できれば充分であり、例えば、赤外線カメラのようなものでもよい。
画像信号処理部16は、撮像部15から入力される画像を表現した電気信号を処理して、所定のフォーマットを有する画像データ160に変換するハードウェアである。すなわち、画像データ160は、直接的には画像信号処理部16によって作成されるデータではあるが、撮像部15によって撮像されたデータでもある。すなわち、携帯端末装置1では、撮像部15および画像信号処理部16が、周囲を撮像した画像データ160を取得する画像取得手段としての機能を有している。
なお、以下の説明において、画像データ160に含まれる被写体のうち、操作者以外の部分を「背景」と称する。すなわち、「背景」には、操作者以外の人物が含まれる場合がある。また、画像データ160において被写体としての操作者が含まれていない場合、当該画像データ160は背景のみの画像データ160である。また、被写体における「操作者」とは、特に断らない限り、操作者本人の身体のみならず、操作者が身に付けている物体も含むものとして説明する。例えば、操作者が帽子を着用している場合には、当該帽子は被写体としての「操作者」であり、背景ではないものとする。
詳細は後述するが、本実施の形態における携帯端末装置1は、撮像部15および画像信号処理部16によって取得された画像データ160に基づいて、当該画像データ160における被写体の動きを検出する。そして、さらに携帯端末装置1は、当該被写体の動きに基づいて、表示部14を閲覧中の操作者の状況(歩行中であるか否か、または、乗り物による移動中であるか否か)を検出する。加速度センサによって自機の動きを検出することにより操作者の動きを検出する従来の技術では、操作者が乗り物に乗車している場合などにおいて、乗り物の動きが影響して誤検出を生じる。しかし、画像データ160に基づいて操作者の状況を検出するのであれば、このような問題は生じない。
図3は、携帯端末装置1が備える機能ブロックをデータの流れとともに示す図である。図3に示すデータ作成部100、検出部101、状況判定部102は、CPU10がプログラム110に従って動作することにより実現される機能ブロックである。
データ作成部100は、周囲を撮像した画像データ160を解析して、撮像されている被写体の特徴を抽出し、検出対象データ121、顔部データ122および人物データ123を作成する。
データ作成部100は、画像データ160において操作者が撮像されている場合には、操作者を表現した部分(画像データ160の一部分)に基づいて顔部データ122を作成する。そして、画像データ160において顔部データ122を除外した部分を検出対象データ121とする。言い換えれば、本実施の形態におけるデータ作成部100は、操作者(操作者の顔部を含む。)と背景とを分離する機能を有しており、これによって検出対象データ121は、被写体として背景のみを含むデータとなる。
撮像される画像データ160によって操作者の歩行動作や乗り物による移動の有無を検出するには、操作者における検出対象となっている状態とそれ以外の状態とにおいて、画像データ160における変化を検出しなければならない。ここに言う「変化」とは動きに限定されるものではないが、本発明では、画像データ160における被写体の動きによって、歩行動作や乗り物による移動の有無を検出する手法を提供するものである。また、ここに言う「被写体の動き」とは、実空間における被写体の動きではなく、あくまでも被写体を表現した画素の画像データ160における位置の変化である。
一方、携帯端末装置1を閲覧するにあたり、操作者は、当該携帯端末装置1(表示部14)を、自分にとって見やすい位置に保持しつづけるものと予想される。言い換えれば、歩行中や乗り物による移動中であろうとそうでなかろうと、操作者(特に操作者の顔部)と携帯端末装置1との相対的な位置関係は維持される蓋然性が高い。このように、操作者と携帯端末装置1との相対的な位置関係が維持されるならば、画像データ160における操作者の動き(操作者を表現した画素の画像データ160内における位置の変化)は、ほとんどないものと考えられる。
したがって、特開2011−258191号公報に記載されている技術のように、画像データ160内における操作者の顔を観察したとしても、操作者が歩行中であるか否か、あるいは、操作者が乗り物による移動中であるか否かを判定することは困難である。むしろ、操作者のこれらの状況を検出するためには、画像データ160から操作者の顔を表現した部分を除外して、その影響を排除した上で判定することが好ましい。したがって、データ作成部100は、画像データ160から顔部データ122を除外して検出対象データ121を作成する。
すでに説明したように、携帯端末装置1は、被写体を表現した画素の画像データ160における位置の変化によって操作者の歩行動作や乗り物による移動の有無を検出する。したがって、携帯端末装置1は、携帯端末装置1を保持した操作者が歩行あるいは乗り物に乗って移動することに起因して生じる画像データ160内の位置の変化を検出しなければならない。逆に言えば、操作者の歩行動作や乗り物による移動の有無によらずに生じている位置の変化(あるいは静止)を、操作者の歩行動作の有無や乗り物による移動の有無と誤認しないために、排除することが好ましい。言い換えれば、操作者の歩行動作や乗り物による移動の有無と無関係に移動する物体については検出対象から除外することが好ましい。
ここで、被写体としての操作者のうち顔以外の部分は、当然のことながら「背景」ではない。また、被写体としての操作者のうち顔以外の部分は、画像データ160に含まれる被写体の中で、操作者の歩行動作や乗り物による移動の有無と無関係に画像データ160内の位置が動く(あるいは静止する)可能性のある被写体である。したがって、本実施の形態におけるデータ作成部100は、操作者の顔とともに操作者全体を画像データ160から除外して、被写体としての操作者を含まない検出対象データ121を作成する。
また、データ作成部100は、特徴抽出によって、画像データ160に操作者以外の人物が撮像されていると判断した場合には、当該人物を表現した部分(画像データ160の一部分)に基づいて人物データ123を作成する。より具体的には、上述のように、画像データ160から顔部データ122を除外し、残りの部分に人物とみなせる被写体がさらに含まれている場合は、当該人物とみなせる被写体部分を抽出して人物データ123とする。そして、画像データ160において人物データ123を除外した部分を検出対象データ121とする。したがって、本実施の形態における検出対象データ121は、人物の部分を除いた部分を表現したデータとなる。このように、携帯端末装置1は、操作者の歩行動作や乗り物による移動の有無と無関係に画像データ160内の位置が変化する可能性のある被写体として、操作者以外の人物を除外して検出対象データ121を作成する。
検出部101は、画像データ160から少なくとも顔部データ122を除いた部分(本実施の形態では、さらに人物データ123を除いた部分)である検出対象データ121に基づいて、当該検出対象データ121に含まれている被写体の動きを検出する。ここに言う被写体の動きとは、当該被写体を表現した画素の検出対象データ121における位置の変化である。本実施の形態における検出部101は、少なくとも当該被写体の検出対象データ121(画像データ160)における移動方向を特定する。
また、検出部101は、特定した移動方向を示す移動データ126を作成する。なお、移動データ126に示される移動方向は、携帯端末装置1(撮像部15)と被写体との相対的な位置関係の変化方向を示すが、当該位置関係の変化は操作者の歩行動作や乗り物による移動の有無によってのみ生じるとは限らない。例えば、操作者が静止した状態(歩行していない状態)であっても、携帯端末装置1を保持した手を動かすことにより、当該動かした方向に応じて検出部101によって移動方向が検出される。
状況判定部102は、検出部101により検出された被写体の移動方向に応じて、操作者が歩行中であるか否かを判定する。また、状況判定部102は、検出部101により検出された被写体の移動方向に応じて、操作者が乗り物による移動中であるか否かを判定する。さらに、状況判定部102は、判定結果に応じて、当該判定結果を示す判定データ129を作成する。なお、被写体のどのような動きが検出された場合に、状況判定部102が「操作者が歩行中である」と判定するか、あるいは、「操作者が乗り物による移動中である」と判定するかについては後述する。
以上が、第1の実施の形態における携帯端末装置1の構成および機能の説明である。次に、携帯端末装置1が操作者の歩行動作を検出する状況検知方法について説明する。
図4および図5は、携帯端末装置1の検知モードにおける動作を例示する流れ図である。検知モードとは、本発明に係る状況検知方法により、操作者の状況(歩行中であるか否か、または、乗り物による移動中か否か)を検知(監視)する動作モードである。
なお、図4および図5に示す各工程が実行される前に、携帯端末装置1において検知モードが選択されているものとする。また、検知モードの選択は、操作者によるキー操作やタッチパネル操作などにより直接的に選択されてもよいし、操作者の状況に応じて動作を変更する特定のアプリケーションが起動されたときなどに自動的に選択されてもよい。あるいは、撮像した画像データ160に被写体としての操作者が含まれているか否かを判定して、操作者が含まれている場合に検知モードが自動的に選択されてもよい。また、本実施の形態における検知モードは他の動作モードと並行して動作するモードであるが、これに限定されるものではなく、単独で動作してもよい。また、特に断らない限り、図4および図5に示す各工程は、CPU10がプログラム110に従って動作することにより実現される工程である。
検知モードが開始されると、CPU10は、撮像タイミングが到来しているか否か(ステップS1)、および、検知モードを終了するか否か(ステップS16)を監視する状態となる。以下、この状態を監視状態と称する。
監視状態において、撮像タイミングが到来している場合(ステップS1においてYes。)、撮像部15が撮像を行い(ステップS2)電気信号を画像信号処理部16に伝達する。次に、画像信号処理部16が画像データ160を作成する(ステップS3)。このように、本実施の形態における携帯端末装置1は、所定の時間間隔で撮像を行い、RAM12に新たな画像データ160が記憶される。
新たな画像データ160がRAMに記憶されると、データ作成部100が、新たに作成された画像データ160に対して画像解析による特徴抽出を実行し(ステップS4)、検出対象データ121、顔部データ122、および、人物データ123を作成する(ステップS5)。これにより、被写体としての操作者を表現した部分および操作者以外の人物を表現した部分を除いた検出対象データ121が新たに作成される。
新たに検出対象データ121が作成されると、検出部101は、前回ステップS5が実行されたときに作成された検出対象データ121と、今回作成された検出対象データ121とを比較することにより、その間の被写体の動きを検出する(ステップS6)。なお、以下では、比較される2つの検出対象データ121のうち、先に作成された検出対象データ121を「前の検出対象データ121」と称し、後に作成された検出対象データ121を「後の検出対象データ121」と称する。
ここで、検出部101が被写体の動きを検出する原理について説明する。
図6は、画像データ160の例を示す図である。ただし、図6に示す向き169は、画像データ160ではなく、画像データ160内に定義される方向を便宜上図示したものである。
図6において、被写体161は操作者の顔を表現した部分であり、被写体162は操作者の顔以外を表現した部分である。また、被写体163は空を表現した部分であり、被写体164は建物を表現した部分である。
検出部101は、データ作成部100によって作成された顔部データ122(被写体161,162が含まれている。)に基づいて、操作者の顔の軸方向を特定して、これと平行で、かつ、操作者の頭頂部方向に向かう向きとしてY軸方向を決定し、さらにY軸方向に略垂直方向としてX軸方向を決定する。すなわち、検出部101は、画像データ160(検出対象データ121)における向き169(図6)を決定する。なお、画像データ160における向き169の決定の手法としては、例えば、特開2011−258191号公報に記載されている技術を用いてもよい。あるいは、表示部14に表示している内容(コンテンツ)の向きに応じて決定してもよいし、向き169は撮像部15に対して固定されていてもよい。
検出部101は、被写体の動きの前後における検出対象データ121に基づいて各画素(ピクセル)の移動量を検出する。より詳細には、前の検出対象データ121と後の検出対象データ121とを比較して、各画素の移動ベクトル(移動量だけでなく移動方向も含まれる。)を求める。すなわち、検出対象データ121における被写体(被写体163,164)の移動ベクトルを求める。
なお、必ずしも全画素について検出対象データ121から移動ベクトルを求める必要はない。複数の画素について、代表する画素の移動ベクトルを求めてもよい。例えば、隣接する4つ(2個×2個)の画素の中の1つの画素についてのみ検出対象データ121から移動ベクトルを求め、当該移動ベクトルをこれら4つの画素に共通の移動ベクトルとしてもよい。
次に、検出部101は、検出された各画素の移動ベクトルに基づいて、逆に、同じ移動ベクトルとなっている画素の総数を各移動ベクトルごとに求め、画素数が最も多い移動ベクトルを特定する。すなわち、検出部101は、前検出対象データ121と新検出対象データ121において、同じ動きをしている最も広い領域(最も画素数の多い被写体)の移動ベクトルを特定する。以下、このようにして求めた移動ベクトルを「最多移動ベクトル」と称する。
一方、画像データ160に基づいて、歩行動作あるいは乗り物による移動の有無による携帯端末装置1の動きを検出するためには、画像データ160に含まれる被写体の中で、携帯端末装置1の動きと独立して動く被写体を検出対象から除外することが好ましい。携帯端末装置1の動きと独立して動く物体の画像データ160における動きは、携帯端末装置1の動きのみを反映しないからである。そして、本実施の形態においては、このような理由から、すでに説明したように、顔部データ122および人物データ123を除外する。しかし、このような被写体がデータ作成部100によって完全に除外できるとは限らない。また、人物以外にも、携帯端末装置1の動きとは独立して動く物体が被写体として背景に映り込んでいることも予想される。
ただし、このような物体は、移動しない物体(携帯端末装置1の動きを検出するための指標に最適な物体)に比べれば、画像データ160に占める領域としては小さな領域となっていることが多いと考えられる。背景に含まれる被写体の多くは動かない物体であると考えられるためである。したがって、いくつかの移動ベクトルが検出されたときには、上記のとおり、画素による、いわば多数決を導入することにより、携帯端末装置1の動きと独立して移動する小物体(被写体)の影響を抑えることができる。
なお、完全に同じ移動ベクトルごとの画素数を求めるのではなく、多少の幅を持たせてもよい。すなわち、同じ動きをしているとみなせる範囲を設けて、それぞれの画素数をカウントしてもよい。図6に示す例では、被写体163の方が、被写体164よりも画素数が多いため、被写体163の移動ベクトルが「最多移動ベクトル」として特定される。
さらに、例えば、無地の壁や青空などが背景において広い領域を占める被写体として含まれている場合、実際には携帯端末装置1の動きに応じて背景が移動していたとしても、検出対象データ121から検出される最多移動ベクトルにおける移動量がほとんど「0」となる場合がある。このような場合、携帯端末装置1が動いていたにもかかわらず、検出部101が移動量を「0」と誤認することになる。
例えば、図6に示す例では、被写体163は「空」であるため、濃淡の少ない被写体である。したがって、被写体163によって特定される最多移動ベクトルは、例えば、操作者の歩行動作と無関係に「0」となるおそれがある。
そこで、最多移動ベクトルが求まると、検出部101は、最多移動ベクトルにおける移動量が閾値以下か否かを判定し、最多移動ベクトルの被写体が実際に画像データ160内で移動していると言えるレベルか否かを判定する。そして、当該被写体が移動していないと判定されると、検出部101は、先述のような誤認が発生する状況か否かを確認するために、当該被写体が無地で濃淡の少ない被写体であるか否かをさらに判定する。当該判定は、例えば、最多移動ベクトルで移動した画素(当該被写体を表現している画素)について、エッジ強度を求め、閾値と比較し、当該エッジ強度が閾値以下である場合には、当該被写体が無地で濃淡の少ない被写体であるとみなすことにより判定できる。
当該被写体が無地で濃淡の少ない被写体であると判定された場合、検出部101は、検出した最多移動ベクトルを破棄し、次点の移動ベクトル(次に画素数の多い移動ベクトル)を新たに最多移動ベクトルとして特定する。図6に示す例では、被写体163の移動量が閾値以下であれば、被写体164の移動ベクトルが最多移動ベクトルとして特定されることになる。なお、次点以下の移動ベクトルを最多移動ベクトルとして特定した場合も、検出部101は、上記の判定を行い、最多移動ベクトルとして採用すべきか否かを判定する。
このように、携帯端末装置1は、無地の壁や青空などの濃淡の少ない被写体が背景において広い領域を占めている場合、他の部分(例えば、当該壁のシミやキズ、小さな模様あるいは当該壁の前に存在する電柱や建物など)を検出の対象に変更する。これにより、背景の移動ベクトルとして正しい移動ベクトルを求めることができるため検出精度が向上する。
ここまでに説明したように、検出部101は、背景(検出対象データ121)において、同じ動きをする最も広い領域を形成する被写体(ただし、無地で濃淡の少ない動きの小さな被写体を除く。)の動きに応じて最多移動ベクトルを決定する。そして、検出部101は、検出した最多移動ベクトルのX軸方向成分「x」および最多移動ベクトルのY軸方向成分「y」を求めて、移動データ126を作成する。このように、移動データ126は、画像データ160(検出対象データ121)における被写体の動きを示す情報となる。
ステップS6が実行されて移動データ126が作成されると、状況判定部102が移動データ126に応じて、操作者の状況として、まず、当該操作者が歩行中か否かを判定する(ステップS11)。
ステップS11において、どのような移動データ126が作成されている場合に、状況判定部102が「歩行中」と判定するかについて説明する。
操作者が歩行中において、操作者は顔部を、歩行方向の前方に向けているのが普通である。また、顔面を傾けながら歩行しつづけることも想定し難い。したがって、操作者の歩行中において、画像データ160における背景は(−Y)方向に移動すると考えられる。
そこで、状況判定部102は、移動データ126におけるx,yがそれぞれ以下の式1および式2のいずれも満たす場合に、操作者が歩行中であると判定し、それ以外は歩行中でないと判定する。
−δ≧y ・・・ 式1
ただし、δは、被写体がY軸方向に移動しているとみなせるか否かに応じて予め設定される閾値であって、δ>0とする。すなわち、式1は、被写体が(−Y)方向に移動しているとみなせる場合に「真」となる。
δ≧|x| ・・・ 式2
ただし、δは、被写体がx軸方向に移動しているとみなせるか否かに応じて予め設定される閾値であって、δ>0とする。すなわち、式2は、被写体がX軸方向には移動していないとみなせる場合に「真」となる。
しかし、操作者が歩行中でなくても、例えば、操作者が携帯端末装置1を保持した腕を動かすことにより携帯端末装置1を(+Y)方向に移動させると、上記式1および式2は、いずれも「真」となる。あるいは、着席していた操作者が立ち上がり動作をしている間も同様である。したがって、式1および式2による判定だけで操作者が歩行中であると判定すると誤判定のおそれがある。すなわち、操作者の腕の動きや立ち上がる動作を見分けることにより誤判定を抑制する必要がある。
ここで、操作者による歩行動作は、瞬間的に行われるのではなく、一定期間継続して行われる動作であると考えられる。逆に、操作者が歩行せずに腕を動かすことにより携帯端末装置1を(+Y)方向に継続して移動させることは困難である。当該操作者の腕が伸びきってしまえば、それ以上、携帯端末装置1を(+Y)方向に移動させることができないからである。また、操作者が立ち上がる動作も比較的短時間で終了する動作である。
したがって、状況判定部102は、式1および式2がいずれも満たされた状態が、所定の期間継続した場合に、操作者が歩行中であると判定し、歩行中を示す判定データ129を作成する(ステップS12)。一方で、それ以外の場合、状況判定部102は、操作者は歩行していないと判定し、さらに、操作者が乗り物による移動中か否かを判定する(ステップS13)。
ステップS13において、どのような移動データ126が作成されている場合に、状況判定部102が「乗り物による移動中」と判定するかについて説明する。
操作者が乗り物に乗って移動している場合において、車窓が画像データ160として撮像されていれば、画像データ160における背景はX軸に平行ないずれかの方向に移動すると考えられる。
そこで、状況判定部102は、移動データ126におけるx,yがそれぞれ以下の式3および式4のいずれも満たす場合に、乗り物に乗って移動中であると判定し、それ以外は乗り物に乗って移動中ではないと判定する。
δ≧|y| ・・・ 式3
式3は、被写体がY軸に平行な方向に関して移動していないとみなせる場合に「真」となる。
δ<|x| ・・・ 式4
式4は、被写体がX軸に平行な方向に移動しているとみなせる場合に「真」となる。
しかし、操作者が乗り物による移動中でなくても、例えば、操作者が携帯端末装置1を保持した腕を動かすことにより携帯端末装置1を(±X)方向に移動させると、上記式3および式4は、いずれも「真」となる。したがって、式3および式4による判定だけで操作者が乗り物に乗って移動中であると判定すると誤判定のおそれがある。すなわち、操作者の腕の動きを見分けることにより誤判定を抑制する必要がある。
ここで、操作者が乗り物に乗って移動している状況は、瞬間的に完了するものではなく、一定期間継続すると予想される。逆に、操作者が腕を動かすことにより携帯端末装置1を(−X)方向または(+X)方向のいずれか一方に継続して移動させることは困難である。当該操作者の腕が伸びきってしまえば、それ以上、携帯端末装置1を移動させることができないからである。
したがって、状況判定部102は、式3および式4がいずれも満たされた状態が、所定の期間継続した場合に、操作者が乗り物に乗って移動中であると判定し、乗り物による移動中を示す判定データ129を作成する(ステップS14)。一方で、それ以外の場合、状況判定部102は、操作者が歩行中であること、または、操作者が乗り物による移動中であることのいずれもが検出されなかったと判定し、その旨を示す判定データ129を作成する(ステップS15)。
本発明は、操作者の状況を、加速度センサ等に頼ることなく検出することを目的としているので、判定データ129を作成するところまでについて説明する。このようにして作成された判定データ129をどのように利用するかは、アプリケーション等において適宜決定すればよい。
例えば、操作者が歩行中であることを示す判定データ129が作成されたことを、操作者の歩行中にのみ発生させるイベントのトリガとしてもよい。
また、操作者が歩行中においてのみ起動が許可されるアプリケーションが考えられる。例えば、歩行による移動開始時間や移動時間とを記録してもよい。これによって、歩行によるカロリー計算を行うアプリケーションなども想定できる。
逆に、歩行中に終了させる(利用を禁止される)アプリケーションなども想定できる。例えば、歩いているときには文字入力モードを自動的にオフにしたり、歩きながら使用すると危険なもの(キーボードなど)については使用できなくしたりすることもできる。このように、歩行中に利用すると危険と思われるアプリケーションやハードウェアを禁止することにより、携帯端末装置1は事故を未然に防止することができる。
また、撮像部15とは別に外向きのカメラを設けて、歩行中に当該カメラを自動的に起動し、当該カメラが撮影している映像をサブウインドウにリアルタイムに表示してもよい。これにより、例えば、メインウインドウで記事を読みながら、サブウインドウに表示された映像で周囲の状況を確認することができる。すなわち、表示部14を注視しつつも、携帯端末装置1の前方の状況を当該カメラの映像で確認することができるので、歩行中の危険を抑制することができる。
また、画像データ160における被写体の移動量(ピクセル)に基づいて、実際の携帯端末装置1の移動距離を推定し、歩行速度を求めることも可能である。この場合、正確な歩行速度を求めようとするならば被写体と携帯端末装置1との相対距離が必要となるが、これは測距センサや3Dカメラなどから求めることもできる。
また、操作者が歩行している状況では、振動により手ぶれが発生し、表示部14における表示内容が閲覧しにくくなることが想定される。したがって、操作者が歩行中であると判定した場合、携帯端末装置1は、表示部14に表示している画像や文字を拡大したり、輪郭線や文字線を太く強調して見やすくすることも有効である。
また、GPSなどの測位手段を活用して現在位置を取得し、動作中のメインアプリケーションとは別のサブウインドウに地図情報を表示したり、歩行による移動軌跡を記録したりしてもよい。
ただし、本実施の形態における携帯端末装置1は、操作者がランニング中やジョギング中においても、「歩行中」と判定する。すなわち、携帯端末装置1が「操作者が歩行中である」と判定した場合とは、実際には操作者が歩いている場合に限定されるものではなく、走っている場合等も含まれることとなる。なお、操作者の動作に関して「歩いている」のか「走っている」のかをより詳細に区別するためには、例えば、振動センサによって振動周期を取得して判定する方法や、移動速度(画像データ160における被写体の移動画素速度)によって判定する方法などが考えられる。
一方で、例えば、操作者が乗り物によって移動中であることを示す判定データ129が作成された場合には、アプリケーションにおいて加速度センサの出力を無視するというような利用方法も考えられる。すなわち、操作者が乗り物によって移動中において、誤動作や誤検出の可能性のあるアプリケーションやハードウェアを停止することができる。
また、道案内アプリケーションにおいて、乗り物に乗車したとみなして、経路検索を行った情報とGPSなどから取得した現在位置情報とに基づいて乗り換えや降車駅を案内する、あるいは、到着地点が接近したことを案内することも可能である。
また、GPSの出力を乗り物の予想経路(運行経路図)によって補正するといったことも想定される。
また、携帯端末装置1が通話部を備えている場合には、乗り物によって移動中であると判定したときには、呼び出し音(着信音)を絞ったり、自動的にマナーモードや留守番設定にすることもできる。
また、音声を再生するアプリケーションが起動されているときには、乗り物によって移動中であると判定したときには、再生音量を下げる、イヤホンの使用を促すメッセージを表示する、あるいは、再生音の音質を変化させて音漏れを防止するといった動作も想定される。
また、乗り物で移動中に実行するアプリケーションは限定される傾向がある。したがって、過去に乗り物で移動中に起動していたアプリケーションを予め記憶しておき、それらを起動選択メニューに優先的に表示することもできる。
ただし、本実施の形態における携帯端末装置1は、車窓が撮像されている場合にのみ「乗り物による移動中」と判定することができるものである。すなわち、乗り物による移動中ではあっても、車窓が撮像されていない場合にはステップS13においてNoと判定されることになる。したがって、ステップS13においてNoと判定された場合であっても、アプリケーションでは「乗り物による移動中でない」と判断するのではなく、「乗り物による移動中か否かは不明」として動作することが好ましい場合もある。すなわち、状況判定部102によって「乗り物による移動中」と判定された場合にのみ、積極的に、その状況を利用した動作を行うように構成することが好ましい。
このように、携帯端末装置1は、検出した操作者の状況(判定データ129)に応じて、携帯端末装置1の動作を制御するCPU10を備えている。これにより、携帯端末装置1は、操作者の状況に応じたサービスの提供が可能となる。したがって、操作者は携帯端末装置1をより快適かつ適切に利用することができる。なお、検知モードを終了するように指示がされた場合は、ステップS16においてYesと判定し、検知モードを終了する。
以上のように、第1の実施の形態における携帯端末装置1は、周囲を撮像した画像データ160を取得する撮像部15および画像信号処理部16と、取得された画像データ160から操作者の顔を表現した顔部データ122を除いた部分である検出対象データ121に基づいて、画像データ160における被写体の動きを検出する検出部101と、検出部101により検出された被写体の動きに応じて、操作者が歩行中であるか否かを判定する状況判定部102とを備える。これにより、加速度センサを搭載していなくても、あるいは加速度センサの出力が信用できない状況であっても、操作者の状況を検出できる。
また、状況判定部102により判定された操作者の状況に応じて、携帯端末装置1の動作を制御するCPU10をさらに備えるので、状況に応じた適切な動作が可能となる。そして、検出される操作者の状況には、操作者が歩行中であるか否か、および、操作者が乗り物による移動中であるかが含まれる。
また、検出部101は、取得された画像データ160から操作者以外の人物を表現した人物データ123を除いた部分である検出対象データ121に基づいて、被写体の動きを検出する。人物は携帯端末装置1と無関係に移動することがあるので、背景中の人物を考慮して動きを検出すると精度が低下する。しかし、携帯端末装置1は、画像データ160に人物が写っていても、これを除外して被写体の動きを検出するので、検出精度の低下を抑制できる。
また、検出部101は、被写体の動きの前後における検出対象データ121に基づいて各画素の移動量を検出する。そして、検出された各画素の移動量に基づいて、当該各画素の移動量ごとの画素数を求め、画素数が最も多い各画素の移動量に応じて、被写体の動きを検出する。これにより、人物や車など、携帯端末装置1の動きと無関係に動く可能性のある被写体の影響を抑制できる。
なお、本実施の形態における携帯端末装置1は、操作者がエスカレータや動く歩道等に乗って静止している場合も、歩行中であると判定される可能性がある。これを抑制するには、例えば、振動センサを設け、歩行動作に伴う振動の有無を検出して区別することが考えられる。
<2. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
例えば、上記実施の形態に示した各工程は、あくまでも例示であって、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。例えば、本実施の形態では、操作者が歩行中であるか否かを判定してから、操作者が乗り物による移動中か否かを判定すると説明したが、これらの工程は逆でもよい。
また、上記実施の形態に示した機能ブロックは、CPU10がプログラム110に従って動作することによりソフトウェア的に実現されると説明したが、これらの機能ブロックのうちの一部または全部が専用の電子回路によってハードウェア的に実現されていてもよい。
また、説明の都合上、データ作成部100が人物データ123を作成するとして説明した。しかし、携帯端末装置1は、人物データ123を参照することがないので、人物データ123は必ずしも必要のないデータである。したがって、人物データ123は作成されなくてもよい。すなわち、人物データ123に相当する部分が検出対象データ121において除外されていればよい。
また、被写体の動きを検出するための検出対象データ121から人物データ123に相当する部分が予め除外されていなくてもよい。すでに説明したように、検出部101は、画素数による多数決によって最多移動ベクトルを特定する。操作者以外の人物は画像データ160において比較的小さい領域となることが予想されるため、人物データ123が除外されていなくても、操作者以外の人物の動きが最多移動ベクトルとして特定されるおそれは少ない。
また、上記実施の形態では、データ作成部100によって顔部データ122および人物データ123に相当する部分を画像データ160から除外して、検出対象データ121を作成すると説明したが、検出対象データ121は必ずしも作成されなくてもよい。例えば、顔部データ122および人物データ123に対応するマスクデータ(除外対象領域を示す情報)を作成し、当該マスクデータに基づいて画像データ160内のデータを検出対象データ121に相当する部分であるか否かを判定しつつ、被写体の移動方向および移動量を検出してもよい。
また、上記実施の形態では、画像データ160に対して特徴抽出を実行することにより、操作者を表現した部分である顔部データ122を特定すると説明した。しかし、このような処理は画像データ160に対する特徴抽出以外の方法でも実現できる。通常、画像データ160において、操作者が映り込む位置はほぼ特定できるので、操作者が映り込んでいる蓋然性の高い部分を、実際に映り込んでいるか否かに関わらず、検出対象データ121から除外するように構成してもよい。あるいはニューラルネットを用いて特定することも可能である。
また、本実施の形態では、歩行中あるいは乗り物による移動中であると判定する際に、(−Y)方向への移動あるいは(±X)方向への移動の継続時間を指標として判定する例について説明した。しかし、例えば、被写体の移動量(画像データ160における移動量)を指標としてもよい。すなわち、被写体が特定の方向に移動を開始してからの総移動量が腕を動かしたときに想定される移動量(閾値)よりも大きくなった時点で、歩行中あるいは乗り物による移動中と判定してもよい。
さらに、加速度センサや回転センサ、振動センサなどを設けて、検出部101の検出精度を向上させるように構成してもよい。
1 携帯端末装置
10 CPU
100 データ作成部
101 検出部
102 状況判定部
11 ROM
110 プログラム
12 RAM
121 検出対象データ
122 顔部データ
123 人物データ
126 移動データ
129 判定データ
13 操作部
14 表示部
15 撮像部
16 画像信号処理部
160 画像データ
161,162,163,164 被写体
169 向き

Claims (9)

  1. 操作者によって操作される携帯端末装置であって、
    周囲を撮像した画像データを取得する画像取得手段と、
    前記画像取得手段により取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記画像データにおける被写体の動きを検出する検出手段と、
    前記検出手段により検出された被写体の動きに応じて、前記操作者の状況を判定する状況判定手段と、
    を備える携帯端末装置。
  2. 請求項1に記載の携帯端末装置であって、
    前記状況判定手段により判定された操作者の状況に応じて、前記携帯端末装置の動作を制御する制御手段をさらに備える携帯端末装置。
  3. 請求項1または2に記載の携帯端末装置であって、
    前記操作者の状況には、操作者が歩行中であるか否かが含まれる携帯端末装置。
  4. 請求項1ないし3のいずれかに記載の携帯端末装置であって、
    前記操作者の状況には、操作者が乗り物による移動中であるかが含まれる携帯端末装置。
  5. 請求項1ないし4のいずれかに記載の携帯端末装置であって、
    前記検出手段は、前記画像取得手段により取得された画像データから前記操作者以外の人物を表現した人物データを除いた部分である検出対象データに基づいて、前記被写体の動きを検出する携帯端末装置。
  6. 請求項1ないし5のいずれかに記載の携帯端末装置であって、
    前記検出手段は、前記被写体の動きの前後における検出対象データに基づいて各画素の移動量を検出する携帯端末装置。
  7. 請求項6に記載の携帯端末装置であって、
    前記検出手段は、検出された各画素の移動量に基づいて、前記各画素の移動量ごとの画素数を求め、画素数が最も多い前記各画素の移動量に応じて、前記被写体の動きを検出する携帯端末装置。
  8. コンピュータ読み取り可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、
    周囲を撮像した画像データを取得する画像取得手段と、
    前記画像取得手段により取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記画像データにおける被写体の動きを検出する検出手段と、
    前記検出手段により検出された被写体の動きに応じて、前記操作者の状況を判定する状況判定手段と、
    を備える携帯端末装置として機能させるプログラム。
  9. 携帯端末装置の状況を検知する状況検知方法であって、
    周囲を撮像した画像データを取得する工程と、
    取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記画像データにおける被写体の動きを検出する工程と、
    検出された被写体の動きに応じて、前記操作者の状況を判定する工程と、
    を有する状況検知方法。
JP2012199815A 2012-09-11 2012-09-11 携帯端末装置、プログラムおよび状況検知方法 Expired - Fee Related JP6108732B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012199815A JP6108732B2 (ja) 2012-09-11 2012-09-11 携帯端末装置、プログラムおよび状況検知方法
US14/426,875 US9747871B2 (en) 2012-09-11 2013-09-10 Portable terminal device, program, device shake compensation method, and condition detection method
PCT/JP2013/074354 WO2014042143A1 (ja) 2012-09-11 2013-09-10 携帯端末装置、プログラム、手ぶれ補正方法および状況検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012199815A JP6108732B2 (ja) 2012-09-11 2012-09-11 携帯端末装置、プログラムおよび状況検知方法

Publications (2)

Publication Number Publication Date
JP2014056343A true JP2014056343A (ja) 2014-03-27
JP6108732B2 JP6108732B2 (ja) 2017-04-05

Family

ID=50613622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012199815A Expired - Fee Related JP6108732B2 (ja) 2012-09-11 2012-09-11 携帯端末装置、プログラムおよび状況検知方法

Country Status (1)

Country Link
JP (1) JP6108732B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112961A (ja) * 2019-01-10 2020-07-27 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
CN112215965A (zh) * 2020-09-30 2021-01-12 杭州灵伴科技有限公司 基于ar的场景导览方法、设备以及计算机可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005533A (ja) * 2004-06-16 2006-01-05 Seiko Epson Corp 動画像の再生時における画像の動きの速度調整
JP2008269471A (ja) * 2007-04-24 2008-11-06 Sony Corp 類似画像判定装置と類似画像判定方法およびプログラムと記録媒体
JP2009188953A (ja) * 2008-02-08 2009-08-20 Olympus Imaging Corp 撮像装置及び撮像方法
JP2010016511A (ja) * 2008-07-02 2010-01-21 Olympus Imaging Corp 撮影装置、撮影装置の制御方法、画像表示装置、画像表示方法、およびプログラム
JP2010114752A (ja) * 2008-11-07 2010-05-20 Canon Inc 撮像装置及び撮像方法及びプログラム
JP2010268343A (ja) * 2009-05-18 2010-11-25 Olympus Imaging Corp 撮影装置および撮影方法
JP2011097344A (ja) * 2009-10-29 2011-05-12 Sanyo Electric Co Ltd 撮像装置および撮像方法
JP2011130327A (ja) * 2009-12-21 2011-06-30 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011186846A (ja) * 2010-03-09 2011-09-22 Oki Electric Industry Co Ltd 動画像処理プログラム、及び動画像処理装置
JP2011258191A (ja) * 2010-06-04 2011-12-22 Sony Computer Entertainment Inc 画像解析を用いた携帯デバイスにおけるビューの向きの選択
JP2011257502A (ja) * 2010-06-07 2011-12-22 Sony Corp 画像安定化装置、画像安定化方法、及びプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005533A (ja) * 2004-06-16 2006-01-05 Seiko Epson Corp 動画像の再生時における画像の動きの速度調整
JP2008269471A (ja) * 2007-04-24 2008-11-06 Sony Corp 類似画像判定装置と類似画像判定方法およびプログラムと記録媒体
JP2009188953A (ja) * 2008-02-08 2009-08-20 Olympus Imaging Corp 撮像装置及び撮像方法
JP2010016511A (ja) * 2008-07-02 2010-01-21 Olympus Imaging Corp 撮影装置、撮影装置の制御方法、画像表示装置、画像表示方法、およびプログラム
JP2010114752A (ja) * 2008-11-07 2010-05-20 Canon Inc 撮像装置及び撮像方法及びプログラム
JP2010268343A (ja) * 2009-05-18 2010-11-25 Olympus Imaging Corp 撮影装置および撮影方法
JP2011097344A (ja) * 2009-10-29 2011-05-12 Sanyo Electric Co Ltd 撮像装置および撮像方法
JP2011130327A (ja) * 2009-12-21 2011-06-30 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011186846A (ja) * 2010-03-09 2011-09-22 Oki Electric Industry Co Ltd 動画像処理プログラム、及び動画像処理装置
JP2011258191A (ja) * 2010-06-04 2011-12-22 Sony Computer Entertainment Inc 画像解析を用いた携帯デバイスにおけるビューの向きの選択
JP2011257502A (ja) * 2010-06-07 2011-12-22 Sony Corp 画像安定化装置、画像安定化方法、及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112961A (ja) * 2019-01-10 2020-07-27 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
JP7012673B2 (ja) 2019-01-10 2022-01-28 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
CN112215965A (zh) * 2020-09-30 2021-01-12 杭州灵伴科技有限公司 基于ar的场景导览方法、设备以及计算机可读存储介质
CN112215965B (zh) * 2020-09-30 2024-02-20 杭州灵伴科技有限公司 基于ar的场景导览方法、设备以及计算机可读存储介质

Also Published As

Publication number Publication date
JP6108732B2 (ja) 2017-04-05

Similar Documents

Publication Publication Date Title
EP4044580B1 (en) Capturing method and electronic device
CN108399349B (zh) 图像识别方法及装置
EP3046017B1 (en) Unlocking method, device and terminal
KR102121592B1 (ko) 시력 보호 방법 및 장치
US9075442B2 (en) Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image
US20170255260A1 (en) Information processing apparatus, information processing method, and program
US20050146600A1 (en) Method and apparatus for improved handset multi-tasking, including pattern recognition and augmentation of camera images
EP3276301B1 (en) Mobile terminal and method for calculating a bending angle
EP3196751A1 (en) Gesture identification method and device
JP6750697B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN112650405B (zh) 一种电子设备的交互方法及电子设备
US11170539B2 (en) Information processing device and information processing method
WO2018198499A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2014042143A1 (ja) 携帯端末装置、プログラム、手ぶれ補正方法および状況検知方法
KR101503017B1 (ko) 모션 검출 방법 및 장치
JP2013183433A (ja) クライアント端末、サーバ、およびプログラム
JP6108732B2 (ja) 携帯端末装置、プログラムおよび状況検知方法
CN113574491A (zh) 影像显示装置和影像显示方法
JP6161244B2 (ja) 携帯端末装置、プログラムおよび入力方法
EP2831702B1 (en) Information processing device, information processing method and program
WO2021197085A1 (zh) 屏下摄像头终端设备的误触提醒方法和装置
KR20170084458A (ko) 헤드 마운트 디스플레이 장치
US11526208B2 (en) Electronic device and method for controlling electronic device
JP7351027B2 (ja) 撮像装置、撮像方法、及び、撮像プログラム
CN117998203B (zh) 一种图像处理方法、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170307

R150 Certificate of patent or registration of utility model

Ref document number: 6108732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees