JP2010250492A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2010250492A
JP2010250492A JP2009098229A JP2009098229A JP2010250492A JP 2010250492 A JP2010250492 A JP 2010250492A JP 2009098229 A JP2009098229 A JP 2009098229A JP 2009098229 A JP2009098229 A JP 2009098229A JP 2010250492 A JP2010250492 A JP 2010250492A
Authority
JP
Japan
Prior art keywords
threshold
cpu
unit
threshold value
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009098229A
Other languages
English (en)
Other versions
JP5182202B2 (ja
Inventor
Reiko Miyazaki
麗子 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009098229A priority Critical patent/JP5182202B2/ja
Priority to EP10250476.8A priority patent/EP2241964B1/en
Priority to US12/755,890 priority patent/US8947463B2/en
Priority to CN2010101512367A priority patent/CN101866214B/zh
Priority to RU2010114740/08A priority patent/RU2010114740A/ru
Publication of JP2010250492A publication Critical patent/JP2010250492A/ja
Application granted granted Critical
Publication of JP5182202B2 publication Critical patent/JP5182202B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Details Of Television Systems (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】本発明は、使い勝手を向上する。
【解決手段】本発明は、ステレオカメラ4により撮像された映像データからユーザの手に対応する入力点の3次元位置を検出し、入力点がパターン1に設定された第1閾値L1又は第2閾値L2を超えて近づいたと判断した場合、パターン1より遠くに設定されたにパターン2に第1閾値L1又は第2閾値L2を設定することにより、入力点が第1閾値L1又は第2閾値L2を超えた際に表示した表示画面G1、G2又はG3が容易に切り替わることを防止することができ、かくして使い勝手を向上することができる。
【選択図】図5

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関し、例えばテレビジョン受像機に適用して好適なものである。
従来、テレビジョン受像機では、リモートコントローラ(以下、これをリモコンとも呼ぶ)からユーザ操作に応じた信号を受信し、当該信号に対応した処理を実行するようになされている。
しかしながら、このようなテレビジョン受像機では、多数の操作ボタンのなかからユーザの所望する処理に応じたボタンを探させる等の煩雑な操作をユーザに強いることになる。
そこでテレビジョン受像機などに設けられるディスプレイ装置のなかには、その前面にカメラが設けられ、当該カメラによって撮像された例えばユーザの手の3次元的な動きに応じた処理を実行するようになされたものが提案されている(例えば、特許文献1参照)。
特開2006−209563公報
ところで上述したディスプレイ装置では、ユーザがディスプレイとの距離をおおよそでしか把握することができないため、ディスプレイからユーザの手までの距離に応じて異なる設定値に設定して処理を実行するような場合、ユーザの意図していない設定値で処理を実行してしまい、使い勝手が悪いという問題があった。
本発明は以上の点を考慮してなされたもので、使い勝手を向上し得る情報処理装置、情報処理方法及び情報処理プログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、所定の検出空間に存在する操作子を検出する操作子検出部と、操作子検出部により検出された操作子の3次元位置を検出する位置検出部と、位置検出部により検出された3次元位置に基づき、操作検出部から所定の距離に設定された閾値を超えて操作子が操作子検出部に近づいた場合、閾値を所定の距離に対して操作子検出部から遠くなるよう設定する閾値設定部と、閾値設定部により設定される閾値を操作子が超えた場合、所定の処理に対する設定値を変更する設定変更部と設定変更部により設定された設定値を用いて処理を実行する処理実行部とを設けるようにした。
また本発明においては、所定の検出空間における操作子を検出する操作子検出部により検出された操作子の3次元位置を検出する位置検出ステップと、上記操作子検出ステップにより検出された操作子の3次元位置を検出する位置検出ステップと、上記位置検出ステップにより検出された上記3次元位置に基づき、上記操作検出部から所定の距離に設定された閾値を超えて上記操作子が上記操作子検出部に近づいた場合、上記閾値を上記所定の距離に対して上記操作子検出部から遠くなるよう設定する閾値設定ステップと、上記閾値設定ステップにより設定された上記閾値を上記操作子が超えた場合、所定の処理に対する設定値を変更する設定変更ステップと、上記設定変更ステップにより設定された上記設定値を用いて上記処理を実行する処理実行ステップとを設けるようにした。
さらに本発明においては、コンピュータに対して、所定の検出空間における操作子を検出する操作子検出部により検出された操作子の3次元位置を検出する位置検出ステップと、上記操作子検出ステップにより検出された操作子の3次元位置を検出する位置検出ステップと、上記位置検出ステップにより検出された上記3次元位置に基づき、上記操作検出部から所定の距離に設定された閾値を超えて上記操作子が上記操作子検出部に近づいた場合、上記閾値を上記所定の距離に対して上記操作子検出部から遠くなるよう設定する閾値設定ステップと、上記閾値設定ステップにより設定された上記閾値を上記操作子が超えた場合、所定の処理に対する設定値を変更する設定変更ステップと、上記設定変更ステップにより設定された上記設定値を用いて上記処理を実行する処理実行ステップとを実行させるようにした。
これにより、ユーザが操作子を閾値を超えて操作子検出部に近づけた場合、その閾値を操作検出部から遠ざけるので、操作子が閾値を一度超えると、操作子が再びその閾値を超えて戻り難く、設定値が容易に変更されることを防止することができる。
以上のように本発明によれば、ユーザが操作子を閾値を超えて操作子検出部に近づけた場合、その閾値を操作検出部から遠ざけるので、操作子が閾値を一度超えると、操作子が再びその閾値を超えて戻り難く、設定値が容易に変更されることを防止することができ、かくして使い勝手を向上し得る情報処理装置、情報処理方法及び情報処理プログラムを実現できる。
テレビジョン受像機の外観構成を示す略線図である。 テレビジョン受像機の回路構成を示す略線図である。 一覧表示画面を示す略線図である。 異なるズーム率における表示画面の構成を示す略線図である。 中央領域の選択の様子を示す略線図である。 ズーム率の閾値パターンを示す略線図である。 スクロール表示の様子を示す略線図である。 第1の実施の形態における画面表示処理手順の説明に供するフローチャートである。 テレビジョン受像機の機能的構成を示す略線図である。 スクロール速度の閾値パターンを示す略線図である。 第2の実施の形態における画面表示処理手順の説明に供するフローチャートである。 他の実施の形態における表示画面を示す略線図である。
以下、発明を実施するための形態(以下実施形態とする)について説明する。
なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.他の実施の形態
<1.第1の実施の形態>
[1−1.テレビジョン受像機の外観構成]
図1に示すように、本発明の情報処理装置としてのテレビジョン受像機1は、映像を表示するためのLCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)等でなるディスプレイ2及び当該ディスプレイ2の下方にスピーカ3が設けられている。
またテレビジョン受像機1は、ディスプレイ2の上方にカメラ4A及び4Bからなるステレオカメラ4が設けられており、当該ステレオカメラ4によってディスプレイ2の前方空間を撮影し得るようになされている。
[1−2.テレビジョン受像機の回路構成]
テレビジョン受像機1は、図2に示すように、CPU(Central Processing Unit)11が不揮発性メモリ12に格納された基本プログラムを読み出してRAM(Random Access Memory)13に展開する。これによりCPU11は、当該基本プログラムに従ってバス20を介して全体を統括制御するようになされている。
またCPU11は、不揮発性メモリ12に記憶された各種アプリケーションプログラムをRAM13に読み出して実行することにより、各種機能を実現するようになされている。
CPU11は、テレビジョン放送の受信表示処理を実行する際、アンテナ14を介して受信した地上ディジタル放送の放送信号をチューナ部15によって受信させる。
チューナ部15は、受信した放送信号から所定の放送チャンネルに対応するテレビジョン選局信号を抽出し、その抽出したテレビジョン選局信号をデコード部16へ送出する。
デコード部16は、チューナ部15から供給されるテレビジョン選局信号を復号することにより音声データ及び映像データを得、映像データを表示制御部17へ送出すると共に、音声データを音声制御部18へ送出する。
表示制御部17は、デコード部16から供給された映像データに対応した映像をディスプレイ2に表示するようになされている。また音声制御部18は、デコード部16から供給された音声データに対応した音声をスピーカ3を介して出力するようになされている。
またテレビジョン受像機1は、インターフェース部19が設けられており、所定の通信経路を介してインターフェース部19にデジタルスチルカメラ等が接続されて画像データが供給された場合、当該画像データを不揮発性メモリ12に記憶する。
そしてCPU11は、不揮発性メモリ12に記憶された画像データを表示するための操作に応じて、詳しくは後述する画像表示処理を実行し、不揮発性メモリ12から画像データを読み出すと、当該画像データを表示制御部17へ送信する。表示制御部17は、CPU11から供給された画像データに基づく画像をディスプレイ2に表示する。
因みに画像データは、EXIF(Exchangeable Image File Format)規格に準拠しており、撮影日時やサムネイル画像等が付加情報として記録されている。従ってテレビジョン受像機1では、例えばユーザ操作に応じて、ディスプレイ2に表示した画像の撮像日時を当該画像と共に表示し得るようになされている。
ところでステレオカメラ4は、カメラ4A及び4Bにより所定間隔ごとにディスプレイ2の前方空間を撮像し、その結果得られる映像データをCPU11へ送出する。
そしてCPU11は、ステレオカメラ4により供給された映像データからユーザの手の動き(以下、これをジェスチャとも呼ぶ)を検出し、当該ジェスチャに応じた処理を実行するようになされている。
具体的にCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを時間の経過と共に所定のタイミング毎に取得する。
そしてCPU11は、ステレオカメラ4から取得した映像データのうち、例えばカメラ4Aにより撮像された映像データに対して肌色検出処理を施す。この肌色検出処理は、映像データの各画素における色相に基づいて肌色であるか否かを判断することにより、映像データに映し出された肌色部分を抽出する。
因みに、CPU11は、映像データに対して肌色検出処理を施した結果、肌色部分を検出することができなかった場合、ユーザがジェスチャ操作を行っていないと判断する。
次にCPU11は、映像データに肌色部分が存在する場合、当該肌色部分に対応する画素のなかから輝度レベルが一番高い画素を入力点として抽出する。
ここで、例えばユーザが人差し指をディスプレイ2に向けてジェスチャを行った場合、CPU11は、肌色部分から輝度レベルの一番高い画素を抽出することにより、ディスプレイ2に最も近い人差し指の指先に対応する画素を入力点として抽出することになる。
続いてCPU11は、カメラ4Aにより撮像された映像データの画像範囲から入力点の平面的な位置を検出することにより、ディスプレイ2に平行な面での入力点の位置を検出し得るようになされている。
またCPU11は、カメラ4A及び4Bによりそれぞれ撮像された映像データを用いて例えばステレオ法によりステレオカメラ4から入力点までのディスプレイ2に垂直な方向の距離を算出する。このときCPU11は、ステレオカメラ4の性能に応じて、例えば約80[cm]から約120[cm]までの検出範囲でステレオカメラ4から入力点までの距離を算出し得るようになされている。
このときCPU11は、検出範囲を例えば256段階(0〜255)に区分し、ステレオ法により検出したステレオカメラ4から入力点までの距離を256段階のいずれかで検出するようになされている。因みに、この256段階は、ステレオカメラ4から最も近い位置を「255」とし、当該ステレオカメラ4から最も遠い位置を「0」として定義される。
従ってCPU11は、入力点のディスプレイ2に平行な面での位置及びステレオカメラ4からの距離を検出することにより、入力点の3次元位置を検出し得るようになされている。
そしてCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを取得する度に、入力点を検出すると共に、当該入力点の3次元位置を検出し、当該3次元位置の変化をジェスチャとして検出する。そしてCPU11は、検出したジェスチャに応じた処理を実行するようになされている。
因みにCPU11は、入力点の3次元位置に基づいて、ユーザの手が指し示しているディスプレイ2の位置を例えば半透明な円形のポインタPT(図5及び図7)で表示することにより、その位置を目視確認させ得るようになされている。
[1−3.画像表示処理]
次に、ジェスチャに応じて、不揮発性メモリ12に記憶された画像データをディスプレイ2に表示する画像表示処理について説明する。
CPU11は、画像表示処理を実行すると、不揮発性メモリ12に記憶された画像データを読み出す。そしてCPU11は、画像データの撮影日時を基に、図3に示すように、読み出した画像データのうち、例えば10枚の画像データに基づく画像P1〜P10を撮影日時順に左から右へ所定間隔離して一列に並べられた一覧表示画面G0を生成する。因みに、画像P1〜P10を特に区別しない場合、単に画像Pとも呼ぶ。
そしてCPU11は、例えば画像P5を全体表示するように表示領域HR1を一覧表示画面G0に設定し、図4(A)に示すように、当該表示領域HR1に対応した表示画面G1をディスプレイ2に表示する。
そしてCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを取得する度に、上述したように肌色検出処理を施し、その結果得られる肌色部分のうち、輝度レベルが一番高い画素を入力点として検出する。
またCPU11は、検出した入力点のディスプレイ2に平行な面での位置及びステレオカメラ4から入力点までの距離を3次元位置として検出する。
このときCPU11は、図5に示すように、ユーザがディスプレイ2の中央付近を指し示した場合、すなわちポインタPTが中央領域CA内に位置している場合、一覧表示画像G0を3段階の異なるズーム率でディスプレイ2に表示するズーム表示を行う。
具体的にCPU11は、入力点の3次元位置に基づいてポインタPTが中央領域CA内に位置していると判断した場合、前後に連続して検出した入力点の距離の差分を求めることにより、当該入力点がステレオカメラ4に近づいているか遠ざかっているかを判断する。
そしてCPU11は、入力点がステレオカメラ4に近づいていると判断した場合、図6(A)に示すように、ズーム率を変更するための第1閾値L1及び第2閾値L2を例えば「150」及び「220」に設定する。因みに、この第1閾値L1及び第2閾値L2は、不揮発性メモリ12に記憶されており、CPU11が当該不揮発性メモリ12から読み出して設定する。
CPU11は、入力点が第1閾値L1である「150」を超えてステレオカメラ4に近づいた場合、一覧表示画面G0(図3)に対して表示領域HR1からズームアウトした表示領域HR2を設定する。
そしてCPU11は、図4(B)に示すように、表示領域HR2に対応した表示画面G2をディスプレイ2に表示する。この表示画面G2は、その余白部分に例えば画像Pが撮像された日付が表示される。
またCPU11は、入力点が第2閾値L2である「220」を超えてステレオカメラ4に近づいた場合、一覧表示画面G0に対して表示領域HR2からさらにズームアウトした表示領域HR3を設定する。
そしてCPU11は、図4(C)に示すように、表示領域HR3に対応した表示画面G3をディスプレイ2に表示する。この表示画面G3は、その余白部分に例えば画像Pが撮像された年月が表示される。
このようにCPU11は、ユーザの手がステレオカメラ4に近づき、第1閾値L1又は第2閾値L2を超えた場合、表示画面G1から表示画面G2、G3へ切り替え、1つの画像Pから多数の画像Pを表示するようにズームアウト表示する。
一方、CPU11は、入力点がステレオカメラ4から遠ざかっていると判断した場合、図6(B)に示すように、ズーム率を変更するための第1閾値L1及び第2閾値L2を例えば「80」及び「170」に設定する。
CPU11は、入力点が第2閾値L2である「170」を超えてステレオカメラ4から遠ざかった場合、一覧表示画面G0(図3)に対して表示領域HR3からズームインした表示領域HR2を設定する。そしてCPU11は、表示領域HR2に対応した表示画面G2(図4(B))をディスプレイ2に表示する。
またCPU11は、入力点が第1閾値L1である「80」を超えてステレオカメラ4から遠ざかった場合、一覧表示画面G0に対して表示領域HR2からさらにズームインした表示領域HR1を設定する。そしてCPU11は、表示領域HR1に対応した表示画面G1(図4(A))をディスプレイ2に表示する。
このようにCPU11は、ユーザの手がディスプレイ2から遠ざかり、第2閾値L2又は第1閾値L1を超えた場合、表示画面G3から表示画面G2、G1へ切り替え、多数の画像Pから1つの画像Pを表示するようにズームイン表示する。
因みに、入力点が例えば「210」まで近づいてから、遠ざかっていくような場合、CPU11は、入力点がステレオカメラ4に近づく際に第2閾値L2に設定された「220」を超えることがないので、表示画面G2をディスプレイ2に表示する。そしてCPU11は、入力点が遠ざかっていると判断すると、第2閾値L2を「170」に設定するが、その際、ディスプレイ2には表示画面G2を表示し続ける。
このようにCPU11は、入力点が第1閾値L1又は第2閾値L2を超えたときだけディスプレイ2に表示する表示画面G1、G2又はG3を切り替えるようになされている。
一方、CPU11は、図7(A)に示すように、例えばディスプレイ2に表示画面G2を表示している状態で、ユーザがディスプレイ2の右側部分を指し示している場合、中央領域CAの右側にポインタPTが位置していること検出する。
このときCPU11は、ユーザが指し示している位置をポインタPTで表示する共に、一覧表示画面G0における表示領域HR2を右方向へ移動させることにより、表示画面G2に表示される画像Pを右から左へ移動するようにスクロール表示する。
またCPU11は、図7(B)に示すように、例えばディスプレイ2に表示画面G2を表示している状態で、ユーザの手がディスプレイ2の左側部分を指し示している場合、中央領域CAの左側にポインタPTが位置していること検出する。
このときCPU11は、ユーザが指し示している位置をポインタPTで表示する共に、一覧表示画面G0における表示領域HR2を左方向へ移動させることにより、表示画面G2に表示された画像Pを左から右へ移動するようにスクロール表示する。
ところでテレビジョン受像機1では、上述したように、ステレオカメラ4から入力点までの距離に応じて、異なる3段階のズーム率でディスプレイ2に画像Pを表示するようになされている。
このときユーザは、じっくりと画像Pを見たい場合、例えば画像P5が全体表示された表示画面G1に設定することが考えられる。このような場合、スクロール速度を速くするとユーザに画像P5をじっくりと見せることができない。そこでCPU11は、表示画面G1をディスプレイ2に表示している状態で、ユーザに中央領域CAの右側又は左側が指し示めされたとき、画像Pを低速でスクロールする。
これに対してユーザは、全体的に画像Pを見たい場合、多数の画像Pが一度に表示された表示画面G2又はG3に設定することが考えられる。このような場合、スクロール速度が遅いと多数の画像Pを全体的に把握するのに多大な時間がかかってしまう。
そこでCPU11は、表示画面G2をディスプレイ2に表示している状態で、ユーザに中央領域CAの右側又は左側が指し示めされたとき、表示画面G1が表示されているときよりも速い中速で画像Pをスクロールする。
またCPU11は、表示画面G3をディスプレイ2に表示している状態で、ユーザに中央領域CAの右側又は左側が指し示めされたとき、表示画面G2が表示されているときよりもさらに速い高速で画像Pをスクロールする。
このようにCPU11は、ユーザにディスプレイ2の右側部分又は左側部分が指し示めされたとき、ディスプレイ2に表示した画像Pをそのズーム率に応じてスクロール速度を変えながら左右にスクロール表示する。
[1−4.画像表示処理手順]
続いて、上述した画像表示処理の手順を図8に示すフローチャートを用いて詳しく説明する。実際上、CPU11は、ルーチンRT1の開始ステップから入って次のステップSP1へ移る。
ステップSP1においてCPU11は、例えば基準とした画像データに対応する画像P5を全体表示するように表示領域HR1を一覧表示画面G0に設定し、当該表示領域HR1に対応した表示画面G1(図4(A))をディスプレイ2に表示する。
そしてCPU11は、ステレオカメラ4のカメラ4Aによりそれぞれ撮像された映像データに対して肌色抽出処理を施すことにより、ユーザの手が検出されたか否かを判断する。
ここで否定結果が得られると、このことは、ユーザの手が検出されないことから、ユーザがジェスチャを行っていないことを意味し、このときCPU11は、ステップSP1へ戻ってユーザの手を検出するまで待ち受ける。
これに対してステップSP1において肯定結果が得られると、このことは、ユーザがジェスチャを行っていることを意味し、このときCPU11は次のステップSP2へ移る。
ステップSP2においてCPU11は、画像Pをスクロール表示しているか否かを判断し、肯定結果が得られるとステップSP4へ移るのに対し、否定結果が得られると、次のステップSP3へ移る。
ステップSP3においてCPU11は、ステレオカメラ4のカメラ4Aによりそれぞれ撮像された映像データから入力点を検出すると共に、当該入力点の3次元位置を検出する。そしてCPU11は、検出した入力点の3次元位置に基づき、当該入力点がディスプレイ2の中央領域CAに対応する位置にあるか否かを判断する。
ここで否定結果が得られると、このことは入力点がディスプレイ2の中央領域CAに対して左方向又は右方向のどちらかに位置しており、ユーザがディスプレイ2の左右のどちらかを指し示していることを意味し、このときCPU11はステップSP4へ移る。
ステップSP4においてCPU11は、ディスプレイ2に表示した画像Pをそのズーム率に応じてスクロール速度を変えながら入力点の位置に応じて左右にスクロール表示し、ステップSP1へ戻る。
これに対してステップSP3において肯定結果が得られると、このことは、ユーザがディスプレイ2の中央領域CAを指し示していることを意味し、このときCPU11は次のステップSP5へ移る。
ステップSP5においてCPU11は、前後に連続して検出したステレオカメラ4から入力点までの距離の差分を求めることにより、当該入力点がステレオカメラ4に近づいているか否かを判断し、肯定結果が得られると次のステップSP6へ移る。
ステップSP6においてCPU11は、第1閾値L1及び第2閾値L2をそれぞれパターン1である「150」及び「220」に設定し、当該第1閾値L1又は第2閾値L2を超えて入力点が近づいたか否かを判断する。
ここで肯定結果が得られると、このことは第1閾値L1又は第2閾値L2を超えて入力点が近づいたことを意味し、このときCPU11は次のステップSP7へ移る。
ステップSP7においてCPU11は、第1閾値L1を超えたことを認識した場合、表示画面G1を表示画面G2に切り替えるズームアウト表示を行う。またCPU11は、第2閾値L2を超えたことを認識した場合、表示画面G2を表示画面G3に切り替えるズームアウト表示を行う。そしてCPU11は、ステップSP1へ戻る。
一方、ステップSP5において否定結果が得られると、このことは入力点がステレオカメラ4から遠ざかっていることを意味し、このときCPU11はステップSP8へ移る。
ステップSP8においてCPU11は、第1閾値L1及び第2閾値L2をそれぞれパターン2である「80」及び「170」に設定し、当該第1閾値L1又は第2閾値L2を超えて入力点が遠ざかったか否かを判断する。
ここで肯定結果が得られると、このことは第1閾値L1又は第2閾値L2を超えて入力点が遠ざかったことを意味し、このときCPU11は次のステップSP9へ移る。
ステップSP9においてCPU11は、第1閾値L1を超えたことを認識した場合、表示画面G2を表示画面G1に切り替えるズームイン表示を行う。またCPU11は、第2閾値L2を超えたことを認識した場合、表示画面G3を表示画面G2に切り替えるズームイン表示を行う。そしてCPU11は、ステップSP1へ戻る。
これに対してステップSP6及びステップSP8において否定結果が得られると、このことは第1閾値L1及び第2閾値L2を超えて入力点が移動していないことを意味し、このときCPU11は次のステップSP10へ移る。
ステップSP10においてCPU11は、表示画面G1、G2及びG3を切り替えることなく表示し続け、ステップSP1へ戻る。
[1−5.動作及び効果]
以上の構成において、テレビジョン受像機1は、ステレオカメラ4により撮像された映像データからユーザの手に対応する肌色部分の最も輝度レベルが高い画素を入力点として検出すると共に、当該入力点の3次元位置を検出する。
そしてテレビジョン受像機1は、入力点が中央領域CAに対応する位置にあり、かつ当該入力点が近づいてきていると判断した場合、第1閾値L1及び第2閾値L2をパターン1に設定する。
そしてテレビジョン受像機1は、入力点が第1閾値L1又は第2閾値L2を超えて近づいた場合、表示画面G1から表示画面G2、又は表示画面G2から表示画面G3へと切り替えてズームアウト表示する。
またテレビジョン受像機1は、入力点の位置が中央領域CA内で、かつ当該入力点が遠ざかっていると判断した場合、パターン1よりステレオカメラ4に対して遠くに設定されたにパターン2に第1閾値L1及び第2閾値L2を設定する。
そしてテレビジョン受像機1は、入力点が第1閾値L1又は第2閾値L2を超えて遠ざかった場合、表示画面G2から表示画面G1、又は表示画面G3から表示画面G2へと切り替えてズームイン表示する。
従ってテレビジョン受像機1は、入力点が第1閾値L1又は第2閾値L2を超えて近づいた場合、当該第1閾値L1又は第2閾値L2をステレオカメラ4から遠くなるように設定する。これによりテレビジョン受像機1は、入力点が第1閾値L1又は第2閾値L2を一度超えると、当該入力点が再び第1閾値L1又は第2閾値L2を超えて戻り難くすることができる。
ここでユーザは、手を近づけて第1閾値L1又は第2閾値L2を超えた場合、ディスプレイ2に表示させる表示画面G1、G2又はG3が切り替わったことに驚いて手を少し引っ込めてしまう場合が考えられる。
このような場合でもテレビジョン受像機1は、第1閾値L1又は第2閾値L2をステレオカメラ4から遠くに設定するので、引っ込めた手の位置に応じて再び表示画面G1、G2又はG3が切り替わることを防止することができる。
このようにテレビジョン受像機1は、ユーザが意図していない動作で表示画面G1、G2又はG3が切り替わることを防止するので、使い勝手を向上することができる。
またテレビジョン受像機1は、入力点の位置が中央領域CAに対して左右のどちらかであると判断した場合、第1閾値L1及び第2閾値L2を設定することなく、表示画面G1、G2又はG3に表示した画像Pをスクロール表示するようにした。
これによりテレビジョン受像機1は、スクロール表示中に表示画面G1、G2又はG3が切り替わることがないので、スクロール表示中にズーム率が変更してしまうことによりユーザを混乱させてしまうことを回避することができる。
以上の構成によれば、テレビジョン受像機1は、ステレオカメラ4により撮像された映像データからユーザの手に対応する入力点の3次元位置を検出する。そしてテレビジョン受像機1は、入力点がパターン1に設定された第1閾値L1又は第2閾値L2を超えて近づいたと判断した場合、パターン1より遠くに設定されたパターン2に第1閾値L1又は第2閾値L2を設定する。
これによりテレビジョン受像機1は、入力点が第1閾値L1又は第2閾値L2を超えた際に表示した表示画面G1、G2又はG3が容易に切り替わることを防止することができ、かくして使い勝手を向上することができる。
[1−6.テレビジョン受像機の機能的構成]
ここで、第1の実施の形態におけるテレビジョン受像機1の機能的な構成について説明する。図9に示すように、テレビジョン受像機1は、操作子検出部31、位置検出部32、閾値設定部33、設定変更部34及び処理実行部35として機能する。
テレビジョン受像機1では、操作子検出部31としてステレオカメラ4が機能し、位置検出部32、閾値設定部33、設定変更部34及び処理実行部35としてCPU11が機能する。
従ってテレビジョン受像機1では、このような機能構成により上述した画像表示処理を実行するようになされている。
<2.第2の実施の形態>
[2−1.テレビジョン受像機の構成]
第2の実施の形態においては、第1の実施の形態とは異なり、ジェスチャを検出する際、ステレオカメラ4により撮像された映像データから入力点を検出するのではなく、ユーザの手の形状を認識する。なお、テレビジョン受像機1の構成については、第1の実施の形態と同様であるためその説明を省略する。
具体的にCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを時間の経過と共に所定のタイミング毎に取得すると、例えばカメラ4Aにより撮像された映像データに対して肌色検出処理を施す。
CPU11は、肌色検出処理を施すことにより得られた肌色部分を入力部分として検出すると共に、当該入力部分のディスプレイ2に平行な面での位置、及びステレオカメラ4からの距離を3次元位置として検出する。
これに加えてCPU11は、映像データに入力部分が存在する場合、当該入力部分の形状と、不揮発性メモリ12に予め記憶された複数の形状とをパターンマッチングする。
このときCPU11は、パターンマッチングした結果、入力部分の形状が不揮発性メモリ12に記憶された複数の形状のいずれとも一致しなかった場合、ユーザがジェスチャを行っていないと判断する。
これに対してCPU11は、パターンマッチングした結果、入力部分の形状が不揮発性メモリ12に記憶された複数の形状のいずれかと一致した場合、ユーザがジェスチャを行っていると判断する。
そしてCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを取得する度に、入力部分の形状及び3次元位置を検出し、当該入力部分の形状及び3次元位置の変化をジェスチャとして検出する。そしてCPU11は、検出したジェスチャに応じた処理を実行するようになされている。
[2−2.画像表示処理]
次に、不揮発性メモリ12に記憶された画像データをディスプレイ2に表示する際のジェスチャに応じた処理について説明する。
CPU11は、画像表示処理を実行すると、第1の実施の形態と同様に、不揮発性メモリ12に記憶された画像データを読み出す。そしてCPU11は、画像データに付加された撮影日時を基に、例えば10枚の画像データに基づく画像P1〜P10が撮影日時順に左から右へ所定間隔離して一列に並べられた一覧表示画面G0(図3)を生成する。
そしてCPU11は、例えば画像P5を全体表示するように表示領域HR1を一覧表示画面G0に設定し、当該表示領域HR1に対応した表示画面G1(図4(A))をディスプレイ2に表示する。
そしてCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを取得する度に、肌色検出処理を施すことにより入力部分を得、当該入力部分の3次元位置を検出する。
またCPU11は、肌色検出処理を施すことにより得られる入力部分に対して、人差し指だけを伸ばした手の形状(以下、これを指示形状とも呼ぶ)及び手を開いた形状(以下、これを開形状とも呼ぶ)とパターンマッチングを行う。
そしてCPU11は、パターンマッチングの結果として入力部分が指示形状と一致した場合、ステレオカメラ4から入力部分までの距離に応じて一覧表示画像G0を3段階の異なるズーム率でディスプレイ2に表示するズーム表示を行う。
具体的にCPU11は、前後に連続して検出したステレオカメラ4から入力部分までの距離の差分を求めることにより、当該入力部分がステレオカメラ4に近づいているか遠ざかっているかを判断する。
そしてCPU11は、入力部分がステレオカメラ4に近づいていると判断した場合、ズーム率を変更するための第1閾値L1及び第2閾値L2をパターン1(図6(A))である例えば「150」及び「220」に設定する。
そしてCPU11は、第1の実施の形態と同様に、入力部分が第1閾値L1である「150」を超えてステレオカメラ4に近づいた場合、表示画面G1から表示画面G2(図4(B))へ切り替えてディスプレイ2に表示する。
またCPU11は、入力部分が第2閾値L2である「220」を超えてステレオカメラ4に近づいた場合、表示画面G2から表示画面G3(図4(C))へ切り替えてディスプレイ2に表示する。
一方、CPU11は、入力部分がステレオカメラ4に遠ざかっていると判断した場合、ズーム率を変更するための第1閾値L1及び第2閾値L2をパターン2(図5(B))である例えば「80」及び「170」に設定する。
そしてCPU11は、第1の実施の形態と同様に、入力部分が第2閾値L2である「170」を超えてステレオカメラ4から遠ざかった場合、表示画面G3から表示画面G2へ切り替えてディスプレイ2に表示する。
またCPU11は、入力部分が第1閾値L1である「80」を超えてステレオカメラ4から遠ざかった場合、表示画面G2から表示画面G1へ切り替えてディスプレイ2に表示する。
一方、CPU11は、パターンマッチングの結果として入力部分が開形状と一致した場合、ステレオカメラ4から入力部分までの距離に応じて3段階の異なるスクロール速度でディスプレイ2に表示された画像Pのスクロール表示を行う。
具体的にCPU11は、前後に連続して検出したステレオカメラ4から入力部分までの距離の差分を求めることにより、当該入力部分がステレオカメラ4に近づいているか遠ざかっているかを判断する。またCPU11は、入力部分がステレオカメラ4に対して右左のどちら側に位置しているかも判断する。
そしてCPU11は、入力部分がステレオカメラ4に近づいていると判断した場合、図10(A)に示すように、スクロール速度を変更するための第3閾値L3及び第4閾値L4をパターン3である例えば「150」及び「220」に設定する。
そしてCPU11は、入力部分が第3閾値L3である「150」を超えていない場合、スクロール速度を低速に設定する。そしてCPU11は、表示画面G1、G2又はG3(図4)に表示された画像Pを入力部分の位置する方向に応じて右方向又は左方向へ低速でスクロール表示する。
またCPU11は、入力部分が第3閾値L3である「150」を超えてステレオカメラ4に近づいた場合、スクロール速度を中速に設定する。そしてCPU11は、表示画面G1、G2又はG3(図4)に表示された画像Pを入力部分の位置する方向に応じて右方向又は左方向へ中速でスクロール表示する。
さらにCPU11は、入力部分が第4閾値L4である「220」を超えてステレオカメラ4に近づいた場合、スクロール速度を高速に設定する。そしてCPU11は、表示画面G1、G2又はG3(図4)に表示された画像Pを入力部分の位置する方向に応じて右方向又は左方向へ高速でスクロール表示する。
一方、CPU11は、入力部分がステレオカメラ4から遠ざかっていると判断した場合、図10(B)に示すように、スクロール速度を変更するための第3閾値L3及び第4閾値L4をパターン4である例えば「80」及び「170」に設定する。
そしてCPU11は、入力部分が第4閾値L4である「170」を超えてステレオカメラ4から遠ざかった場合、スクロール速度を中速に設定し、表示画面G1、G2又はG3に表示された画像Pを入力部分の位置する方向に応じて中速でスクロール表示する。
またCPU11は、入力部分が第3閾値L3である「80」を超えてステレオカメラ4から遠ざかった場合、スクロール速度を低速に設定し、表示画面G1、G2又はG3に表示された画像Pを入力部分の位置する方向に応じて低速でスクロール表示する。
このようにCPU11は、ユーザの手の形状及び3次元位置に応じてズーム率及びスクロール速度を変えながら画像Pを表示する。
[2−3.画像表示処理手順]
続いて、上述した画像表示処理の手順を図11に示すフローチャートを用いて詳しく説明する。実際上、CPU11は、ルーチンRT2の開始ステップから入って次のステップSP21へ移る。
ステップSP21においてCPU11は、例えば画像P5を全体表示するように表示領域HR1を一覧表示画面G0に設定し、当該表示領域HR1に対応した表示画面G1(図4(A))をディスプレイ2に表示する。
そしてCPU11は、ステレオカメラ4のカメラ4Aにより撮像された映像データに対して肌色抽出処理を施すことにより、肌色部分が存在するか否かによってユーザの手が検出されたか否かを判断する。
ここで否定結果が得られると、このことは、ユーザの手が検出されないことから、ユーザがジェスチャを行っていないことを意味し、このときCPU11は、ステップSP21へ戻ってユーザの手を検出するまで待ち受ける。
これに対してステップSP21において肯定結果が得られると、このことは、ユーザの手を検出したことを意味し、このときCPU11は次のステップSP22へ移る。
ステップSP22においてCPU11は、肌色検出処理を施すことにより得られる入力部分と不揮発性メモリ12に記憶された指示形状とのパターンマッチングを行い、当該入力部分が指示形状と一致したか否かを判断する。
ここで肯定結果が得られると、ユーザがズーム率を変更するための操作を行うことを意味しており、このときCPU11は次のステップSP23へ移る。
ステップSP23においてCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを基に入力部分の3次元位置を検出する。
そしてCPU11は、前後に連続して検出したステレオカメラ4から入力部分までの距離の差分を求めることにより、当該入力部分がステレオカメラ4に近づいているか否かを判断し、肯定結果が得られると次のステップSP24へ移る。
ステップSP24においてCPU11は、第1閾値L1及び第2閾値L2をそれぞれパターン1である「150」及び「220」に設定し、当該第1閾値L1又は第2閾値L2を超えて入力部分が近づいたか否かを判断する。
ここで否定結果が得られると、第1閾値L1及び第2閾値L2を超えて入力部分が移動していないことを意味し、このときCPU11はステップSP29へ移る。
これに対してステップSP24において肯定結果が得られると、このことは第1閾値L1又は第2閾値L2を超えて入力部分が近づいたことを意味し、このときCPU11は次のステップSP25へ移る。
ステップSP25においてCPU11は、入力部分が第1閾値L1を超えたことを認識した場合、表示画面G1を表示画面G2に切り替えるズームアウト表示を行う。またCPU11は、第2閾値L2を超えたことを認識した場合、表示画面G2を表示画面G3に切り替えるズームアウト表示を行う。そしてCPU11は、ステップSP21へ戻る。
一方、ステップSP23において否定結果が得られると、このことは入力部分がステレオカメラ4から遠ざかっていることを意味し、このときCPU11はステップSP26へ移る。
ステップSP26においてCPU11は、第1閾値L1及び第2閾値L2をそれぞれパターン2である「80」及び「170」に設定し、当該第1閾値L1又は第2閾値L2を超えて入力部分が遠ざかったか否かを判断する。
ここで否定結果が得られると、このことは第1閾値L1及び第2閾値L2を超えて入力部分が移動していないことを意味し、このときCPU11はステップSP29へ移る。
これに対してステップSP26において肯定結果が得られると、このことは第1閾値L1又は第2閾値L2を超えて入力点が遠ざかったことを意味し、このときCPU11は次のステップSP27へ移る。
ステップSP27においてCPU11は、入力部分が第1閾値L1を超えたことを認識した場合、表示画面G2を表示画面G1に切り替えるズームイン表示を行う。またCPU11は、第2閾値L2を超えたことを認識した場合、表示画面G3を表示画面G2に切り替えるズームイン表示を行う。そしてCPU11は、ステップSP21へ戻る。
一方、ステップSP22において否定結果が得られると、CPU11はステップSP28へ移る。ステップSP28においてCPU11は、肌色検出処理を施すことにより得られる入力部分と不揮発性メモリ12に記憶された開形状とのパターンマッチングを行い、当該入力部分が開形状と一致したか否かを判断する。
ここで否定結果が得られると、このことは肌色検出処理を施すことにより得られる入力部分が指示形状及び開形状と一致しなかったことを意味し、このときCPU11はステップSP29へ移る。
ステップSP29においてCPU11は、ディスプレイ2に表示している表示画面G1、G2又はG3を変更することなくそのまま表示し続ける。
これに対してステップSP28において肯定結果が得られると、このことは画像Pをスクロールさせるための操作をユーザが行っていることを意味しており、このときCPU11は次のステップSP30へ移る。
ステップSP30においてCPU11は、ステレオカメラ4のカメラ4A及び4Bによりそれぞれ撮像された映像データを基に、入力部分の3次元位置を検出する。
そしてCPU11は、前後に連続して検出したステレオカメラ4から入力部分までの距離の差分を求めることにより、当該入力部分がステレオカメラ4に近づいているか否かを判断し、肯定結果が得られると次のステップSP31へ移る。
ステップSP31においてCPU11は、第3閾値L3及び第4閾値L4をそれぞれパターン3である「150」及び「220」に設定し、当該第3閾値L3又は第4閾値L4を超えて入力部分が近づいたか否かを判断する。
ここで肯定結果が得られると、このことは第3閾値L3又は第4閾値L4を超えて入力部分が近づいたことを意味し、このときCPU11はステップSP33へ移る。これに対して否定結果が得られると、このことは第3閾値L3及び第4閾値L4を超えて入力部分が移動していないことを意味し、このときCPU11はステップSP34へ移る。
一方、ステップSP30において否定結果が得られると、このことは入力点がステレオカメラ4から遠ざかっていることを意味し、このときCPU11はステップSP32へ移る。
ステップSP32においてCPU11は、第3閾値L3及び第4閾値L4をそれぞれパターン4である「80」及び「170」に設定し、当該第3閾値L3又は第4閾値L4を超えて入力部分が近づいたか否かを判断する。
ここで肯定結果が得られると、このことは第3閾値L3又は第4閾値L4を超えて入力部分が遠ざかったことを意味し、このときCPU11はステップSP33へ移る。これに対して否定結果が得られると、このことは第3閾値L3及び第4閾値L4を超えて入力部分が移動していないことを意味し、このときCPU11はステップSP34へ移る。
ステップSP33においてCPU11は、第3閾値L3又は第4閾値L4を超えた場合に対応するスクロール速度に変更し、次のステップSP35へ移る。一方、ステップSP34においてCPU11は、スクロール速度を変更することなく維持し、次のステップSP35へ移る。
ステップSP35においてCPU11は、表示画面G1、G2又はG3に表示された画像Pを入力部分の位置に応じて右方向又は左方向へステップSP34又はSP35において設定されたスクロール速度でスクロール表示し、ステップSP21へ移る。
[2−4.動作及び効果]
以上の構成において、テレビジョン受像機1は、ステレオカメラ4により撮像された映像データからユーザの手を入力部分として検出し、当該検出した入力部分の形状及び3次元位置を検出する。
またテレビジョン受像機1は、入力部分の形状が例えば指示形状であった場合で、かつ当該入力部分が近づいている場合、第1閾値L1及び第2閾値L2をパターン1に設定する。
そしてテレビジョン受像機1は、入力部分が第1閾値L1又は第2閾値L2を超えて近づいた場合、表示画面G1から表示画面G2、又は表示画面G2から表示画面G3へと切り替えるズームアウト表示する。
またテレビジョン受像機1は、入力部分の形状が例えば指示形状であった場合で、かつ当該入力部分が遠ざかっている場合、パターン1よりステレオカメラ4から遠い位置に設定されたパターン2に第1閾値L1及び第2閾値L2を設定する。
そしてテレビジョン受像機1は、入力部分が第1閾値L1又は第2閾値L2を超えて遠ざかった場合、表示画面G2から表示画面G1、又は表示画面G3から表示画面G2へと切り替えるズームイン表示する。
従ってテレビジョン受像機1は、入力部分が第1閾値L1又は第2閾値L2を超えて近づいた場合、当該第1閾値L1又は第2閾値L2をステレオカメラ4から遠くなるように設定する。これによりテレビジョン受像機1は、入力部分が第1閾値L1又は第2閾値L2を一度超えると、当該入力部分が再び第1閾値L1又は第2閾値L2を超えて戻り難くすることができる。
またテレビジョン受像機1は、入力部分の形状が例えば開形状であった場合で、かつ当該入力部分が近づいてきていると判断した場合、第3閾値L3及び第4閾値L4をパターン3に設定する。
そしてテレビジョン受像機1は、入力部分が第3閾値L3又は第4閾値L4を超えて近づいた場合、表示画面G1、G2又G3に表示された画像Pを当該入力部分の位置に応じて右方向又は左方向へスクロール速度を速くするよう切り替えてスクロール表示する。
またテレビジョン受像機1は、入力部分の形状が例えば開形状であった場合で、かつ当該入力部分が遠ざかっていると判断した場合、パターン3よりステレオカメラ4から遠い位置に設定されたにパターン4に第3閾値L3及び第4閾値L4を設定する。
そしてテレビジョン受像機1は、入力部分が第3閾値L3又は第4閾値L4を超えて遠ざかった場合、表示画面G1、G2又G3に表示された画像Pを当該入力部分の位置に応じて右方向又は左方向へスクロール速度が遅くなるよう切り替えてスクロール表示する。
従ってテレビジョン受像機1は、入力部分が第3閾値L3又は第4閾値L4を超えて近づいた場合、当該第3閾値L3又は第4閾値L4をステレオカメラ4から遠くなるように設定する。これによりテレビジョン受像機1は、入力部分が第3閾値L3又は第4閾値L4を一度超えると、当該入力部分が再び第3閾値L3又は第4閾値L4を超えて戻り難くすることができる。
そのためテレビジョン受像機1は、入力部分が第1閾値L1、第2閾値L2、第3閾値L3又は第4閾値L4を超えた際に表示した表示形態を継続し易くすることができる。
またテレビジョン受像機1は、入力部分の形状に応じて閾値を第1閾値L1及び第2閾値L2と、第3閾値L3及び第4閾値L4とを変えるようにしたことにより、例えばズーム表示とスクロール表示とで異なる距離で閾値を設定することができる。
以上の構成によれば、テレビジョン受像機1は、ステレオカメラ4により撮像された映像データからユーザの手に対応する入力部分の形状及び3次元位置を検出する。そしてテレビジョン受像機1は、入力部分の形状に応じてパターン1又はパターン3に設定された閾値を超えて入力部分が近づいた場合、パターン1又はパターン3より遠くに設定されたにパターン2又はパターン4に閾値を設定する。
これによりテレビジョン受像機1は、入力部分が閾値を超えた際に表示していた表示形態が容易に切り替わることを防止することができ、かくして使い勝手を向上することができる。
<3.他の実施の形態>
[3−1.他の実施の形態1]
なお上述した第1及び第2の実施の形態においては、ステレオカメラ4により撮像された映像データからユーザの手の3次元位置を検出するようにした場合について述べた。
しかしながら本発明はこれに限らず、例えば誘導型、静電容量型、超音波型、電磁波型、赤外線型等の近接センサを用いてユーザの手の3次元位置を検出するようにしても良い。
[3−2.他の実施の形態2]
また上述した第1及び第2の実施の形態においては、ユーザの手の3次元位置を検出するようにした場合について述べたが、本発明はこれに限らず、例えばリモコン等の3次元位置を検出するようにしても良い。
[3−3.他の実施の形態3]
さらに上述した第1及び第2の実施の形態においては、第1閾値L1又は第2閾値L2を超えた場合、画像Pをズームイン又はズームアウト表示するようにした場合について述べた。しかしながら本発明はこれに限らず、第1閾値L1又は第2閾値L2を超えた場合、例えばボリュームを変更したり、チャンネルを切り替える等の所定の処理に対する設定値を変更する場合であれば、その処理は問わない。
同様に、第1及び第2の実施の形態においては、ディスプレイ2の右側又は左側が指し示めされたとき、または入力部分の形状が開形状であった場合、ディスプレイ2に表示した画像Pを左右にスクロール表示するようにした場合について述べた。しかしながら本発明はこれに限らず、所定の処理に対する設定値を変更する場合であれば、その処理は問わない。
[3−4.他の実施の形態4]
さらに上述した第2の実施の形態においては、入力部分の形状が指示形状であった場合、第1閾値L1及び第2閾値L2を用い、入力部分の形状が開形状であった場合、第3閾値L3及び第4閾値L4を用いるようにした場合について述べた。
しかしながら本発明はこれに限らず、入力部分の形状が指示形状であった場合と、入力部分の形状が開形状であった場合とで、同じ閾値である例えば第1閾値L1及び第2閾値L2を用いるようにしても良い。
[3−5.他の実施の形態5]
さらに上述した第1及び第2の実施の形態においては、例えばズーム率を3段階で変更し得るように第1閾値L1及び第2閾値L2を設けるようにした場合について述べた。
しかしながら本発明はこれに限らず、ズーム率を5段階で変更する場合、異なる値に設定された4つの閾値を設けるようにすればよく、閾値の数は問わない。
[3−6.他の実施の形態6]
さらに上述した第1及び第2の実施の形態においては、ユーザの手が第2閾値L2を超えて近づいた場合、表示画面G3をディスプレイ2に表示するようにした場合について述べた。
しかしながら本発明はこれに限らず、ユーザの手が第2閾値L2を超えて近づいた場合、図12(A)に示すように、画像G4をディスプレイ2に表示するようにしても良い。
この画像G4は、表示画面G2の画像P3〜P7の上下方向に、例えば当該画像P3〜P7と日付が近い画像や同一地域で取られた画像などが上下に向かって透明度が高くなるように表示される。
[3−7.他の実施の形態7]
さらに上述した第1及び第2の実施の形態においては、入力点又は入力部分が第2閾値L2を超えて近づいた場合、表示画面G3をディスプレイ2に表示するようにした場合について述べた。
しかしながら本発明はこれに限らず、入力点又は入力部分が第2閾値L2を超えて近づいた場合、図12(B)及び(C)に示すように、画像G5又は画面G6をディスプレイ2に表示するようにしても良い。
この画像G5は、表示画面G3よりもさらに多数の画像Pが表示される。また画像G6は、画像G5に表示された画像Pの上下方向に、例えば当該画像Pと日付が近い画像や同一地域で取られた画像などが上下に向かって透明度が高くなるように表示される。さらに画像G7は、画像G5に表示された画像Pの下方向に、例えば当該画像Pと日付が近い画像や同一地域で取られた画像などが下に向かって透明度が高くなるように表示される。
また画像G5、G6及びG7は、画像G3よりもさらにズームアウト表示されているので、例えばその余白部分に画像Pの撮像された年を表示するようになされている。
[3−8.他の実施の形態8]
さらに上述した第1及び第2の実施の形態においては、入力点又は入力部分が例えば第1閾値L1を超えて近づいた後、当該入力点又は入力部分が遠ざかった場合、第1閾値L1をパターン1からパターン2へ設定するようにした場合について述べた。
しかしながら本発明はこれに限らず、入力点又は入力部分が例えば第1閾値L1を超えて近づいた際、当該第1閾値L1を超えたら直ぐに第1閾値L1をパターン1からパターン2へ設定するようにしてもよい。
[3−9.他の実施の形態9]
さらに上述した第1及び第2の実施の形態においては、例えばパターン1で「150」に設定され、パターン2で「70」に設定されるようにした場合について述べた。
しかしながら本発明はこれに限らず、第1閾値L1が、入力点又は入力部分がステレオカメラ4から遠ざかる場合、近づく場合と比べて、少なくともユーザが表示画面G1、G2又はG3が切り替わったことに驚いて手を引っ込めてしまう距離よりも遠い位置に設定されていれば良い。また第2閾値L2、第3閾値L3及び第4閾値L4についても同様である。
[3−10.他の実施の形態10]
さらに上述した第1及び第2の実施の形態においては、CPU11が不揮発性メモリ12に格納されている画像表示処理プログラムに従い、上述した画像表示処理を行うようにした場合について述べた。しかしながら本発明はこれに限らず、記憶媒体からインストールしたり、インターネットからダウンロードした画像表示処理プログラムに従って上述した画像表示処理を行うようにしても良い。またその他種々のルートによってインストールした画像表示処理プログラムに従って上述した画像表示処理を行うようにしても良い。
[3−11.他の実施の形態11]
さらに上述した第1及び第2の実施の形態においては、操作子検出部としてステレオカメラ4が設けられるようにした場合について述べた。しかしながら本発明は、その他種々の構成でなる位置検出部を設けるようにしても良い。
さらに上述した第1及び第2の実施の形態においては、位置検出部としてCPU11が設けられるようにした場合について述べた。しかしながら本発明は、その他種々の構成でなる位置検出部を設けるようにしても良い。
さらに上述した第1及び第2の実施の形態においては、閾値設定部としてCPU11が設けられるようにした場合について述べた。しかしながら本発明は、その他種々の構成でなる閾値設定部を設けるようにしても良い。
さらに上述した第1及び第2の実施の形態においては、設定変更部としてCPU11が設けられるようにした場合について述べた。しかしながら本発明は、その他種々の構成でなる設定変更部を設けるようにしても良い。
さらに上述した第1及び第2の実施の形態においては、処理実行部としてCPU11が設けられるようにした場合について述べた。しかしながら本発明は、その他種々の構成でなる処理実行部を設けるようにしても良い。
本発明は、テレビジョン受像機以外にも例えば携帯電話等の情報処理装置に利用することができる。
1……テレビジョン受像機、2……ディスプレイ、3……スピーカ、4……ステレオカメラ、4A、4B……カメラ、11……CPU、12……不揮発性メモリ、13……ROM、14……アンテナ、15……チューナ部、16……デコード部、17……表示制御部、18……音声制御部、19……インターフェース部、20……バス。

Claims (6)

  1. 所定の検出空間における操作子を検出する操作子検出部と、
    上記操作子検出部により検出された操作子の3次元位置を検出する位置検出部と、
    上記位置検出部により検出された3次元位置に基づき、上記操作検出部から所定の距離に設定された閾値を超えて上記操作子が上記操作子検出部に近づいた場合、上記閾値を上記所定の距離に対して上記操作子検出部から遠くなるよう設定する閾値設定部と、
    上記閾値設定部により設定された上記閾値を上記操作子が超えた場合、所定の処理に対する設定値を変更する設定変更部と、
    上記設定変更部により設定された上記設定値を用いて上記処理を実行する処理実行部と
    を具える情報処理装置。
  2. 上記閾値設定部は、
    上記所定の距離に設定された上記閾値を超えて上記操作子が近づき、かつ上記操作子が上記操作子検出部から遠ざかる場合、上記閾値を上記所定の距離に対して上記操作子検出部から遠くなるよう設定する
    請求項1に記載の情報処理装置。
  3. 上記実行処理部は、複数の処理の中から上記位置検出部により検出された上記操作子の3次元位置に応じた処理を実行し、
    上記閾値設定部は、
    上記処理実行部により実行される処理ごとに上記閾値を設定する
    請求項2に記載の情報処理装置。
  4. 上記操作子検出部により検出された上記操作子の形状を検出する形状検出部
    をさらに具え、
    上記処理実行部は、
    上記形状検出部により検出された形状に応じた処理を実行する
    請求項3に記載の情報処理装置。
  5. 所定の検出空間における操作子を検出する操作子検出部により検出された操作子の3次元位置を検出する位置検出ステップと、
    上記操作子検出ステップにより検出された操作子の3次元位置を検出する位置検出ステップと、
    上記位置検出ステップにより検出された上記3次元位置に基づき、上記操作検出部から所定の距離に設定された閾値を超えて上記操作子が上記操作子検出部に近づいた場合、上記閾値を上記所定の距離に対して上記操作子検出部から遠くなるよう設定する閾値設定ステップと、
    上記閾値設定ステップにより設定された上記閾値を上記操作子が超えた場合、所定の処理に対する設定値を変更する設定変更ステップと、
    上記設定変更ステップにより設定された上記設定値を用いて上記処理を実行する処理実行ステップと
    を具える情報処理方法。
  6. コンピュータに対して、
    所定の検出空間における操作子を検出する操作子検出部により検出された操作子の3次元位置を検出する位置検出ステップと、
    上記操作子検出ステップにより検出された操作子の3次元位置を検出する位置検出ステップと、
    上記位置検出ステップにより検出された上記3次元位置に基づき、上記操作検出部から所定の距離に設定された閾値を超えて上記操作子が上記操作子検出部に近づいた場合、上記閾値を上記所定の距離に対して上記操作子検出部から遠くなるよう設定する閾値設定ステップと、
    上記閾値設定ステップにより設定された上記閾値を上記操作子が超えた場合、所定の処理に対する設定値を変更する設定変更ステップと、
    上記設定変更ステップにより設定された上記設定値を用いて上記処理を実行する処理実行ステップと
    を実行させる情報処理プログラム。
JP2009098229A 2009-04-14 2009-04-14 情報処理装置、情報処理方法及び情報処理プログラム Expired - Fee Related JP5182202B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009098229A JP5182202B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及び情報処理プログラム
EP10250476.8A EP2241964B1 (en) 2009-04-14 2010-03-15 Information processing apparatus, information processing method, and information processing program
US12/755,890 US8947463B2 (en) 2009-04-14 2010-04-07 Information processing apparatus, information processing method, and information processing program
CN2010101512367A CN101866214B (zh) 2009-04-14 2010-04-07 信息处理设备和信息处理方法
RU2010114740/08A RU2010114740A (ru) 2009-04-14 2010-04-13 Устройство для обработки информации и способ обработки информации

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009098229A JP5182202B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2010250492A true JP2010250492A (ja) 2010-11-04
JP5182202B2 JP5182202B2 (ja) 2013-04-17

Family

ID=42359424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009098229A Expired - Fee Related JP5182202B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (5)

Country Link
US (1) US8947463B2 (ja)
EP (1) EP2241964B1 (ja)
JP (1) JP5182202B2 (ja)
CN (1) CN101866214B (ja)
RU (1) RU2010114740A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070161A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 情報処理装置
JP2012164115A (ja) * 2011-02-07 2012-08-30 Fujitsu Ltd 操作制御装置,操作制御プログラムおよび操作制御方法
JP2013149049A (ja) * 2012-01-19 2013-08-01 Kyocera Corp タッチパネル式入力装置
JP2013541110A (ja) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド ジェスチャベースの入力のスケーリング
JP2014512060A (ja) * 2011-04-20 2014-05-19 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャーに基づく要素又はアイテムの制御
JP2015508539A (ja) * 2012-01-09 2015-03-19 サムスン エレクトロニクス カンパニー リミテッド 表示装置及びその制御方法
JP2016148653A (ja) * 2016-01-21 2016-08-18 パイオニア株式会社 物体検出装置、物体検出方法、物体検出用プログラム及び情報記録媒体
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2018028543A (ja) * 2017-09-19 2018-02-22 パイオニア株式会社 物体検出装置、物体検出方法、物体検出用プログラム及び情報記録媒体
CN109262606A (zh) * 2017-07-18 2019-01-25 松下知识产权经营株式会社 装置、方法、程序以及机器人
JP2019194596A (ja) * 2019-06-03 2019-11-07 パイオニア株式会社 物体検出装置

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110582B2 (en) * 2010-11-03 2015-08-18 Samsung Electronics Co., Ltd. Mobile terminal and screen change control method based on input signals for the same
KR101863654B1 (ko) * 2010-11-03 2018-06-04 삼성전자 주식회사 입력 신호에 따른 화면 변화 제어 방법 및 이를 지원하는 휴대 단말기
JP5711962B2 (ja) * 2010-12-27 2015-05-07 株式会社ソニー・コンピュータエンタテインメント ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
CN102681754B (zh) * 2011-03-16 2016-03-30 联想(北京)有限公司 信息处理设备和信息处理方法
US20120268374A1 (en) * 2011-04-25 2012-10-25 Heald Arthur D Method and apparatus for processing touchless control commands
US9152288B2 (en) * 2011-05-19 2015-10-06 Microsoft Technology Licensing, Llc Remote multi-touch
JP5839220B2 (ja) * 2011-07-28 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2013157061A (ja) * 2012-01-31 2013-08-15 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013191113A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示制御装置、表示制御方法およびプログラム
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
KR101515623B1 (ko) * 2012-05-14 2015-04-28 삼성전자주식회사 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치
US8907264B2 (en) * 2012-06-14 2014-12-09 Intersil Americas LLC Motion and simple gesture detection using multiple photodetector segments
WO2014034031A1 (ja) 2012-08-30 2014-03-06 パナソニック株式会社 情報入力装置及び情報表示方法
USD737842S1 (en) * 2013-03-14 2015-09-01 Microsoft Corporation Display screen with graphical user interface
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
JP6015547B2 (ja) * 2013-05-09 2016-10-26 株式会社デンソー 視線入力装置
CN103488296B (zh) * 2013-09-25 2016-11-23 华为软件技术有限公司 体感交互手势控制方法及装置
US20150097766A1 (en) * 2013-10-04 2015-04-09 Microsoft Corporation Zooming with air gestures
KR20150133898A (ko) * 2014-05-20 2015-12-01 삼성디스플레이 주식회사 창문 겸용 표시장치
FR3059440A1 (fr) * 2016-11-30 2018-06-01 Orange Navigation dans des donnees utilisateur
CN107728792B (zh) * 2017-11-17 2020-08-11 浙江大学 一种基于手势识别的增强现实三维绘图系统及绘图方法
JP6713591B1 (ja) * 2019-04-17 2020-06-24 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
KR20210042621A (ko) * 2019-10-10 2021-04-20 삼성전자주식회사 전자 장치 및 이를 이용한 카메라 배율 조정 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04263741A (ja) * 1991-01-11 1992-09-18 Mitsubishi Electric Corp 温風暖房機
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
JP2008543226A (ja) * 2005-05-31 2008-11-27 スリーエム イノベイティブ プロパティズ カンパニー 容量性タッチセンサーにおける漂遊容量の検出および漂遊容量の補正
JP2008544352A (ja) * 2005-06-08 2008-12-04 スリーエム イノベイティブ プロパティズ カンパニー 多数のタッチ位置法を含むタッチ位置決定方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
CN100480972C (zh) * 2004-06-29 2009-04-22 皇家飞利浦电子股份有限公司 图形用户界面的多层显示
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
KR100643470B1 (ko) * 2005-09-29 2006-11-10 엘지전자 주식회사 휴대용 단말기의 그래픽 신호 표시장치 및 방법
DE102006037154A1 (de) * 2006-03-27 2007-10-18 Volkswagen Ag Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
WO2008028334A1 (en) * 2006-09-01 2008-03-13 Thomson Licensing Method and device for adaptive video presentation
EP2153377A4 (en) * 2007-05-04 2017-05-31 Qualcomm Incorporated Camera-based user input for compact devices
EP2065795A1 (en) * 2007-11-30 2009-06-03 Koninklijke KPN N.V. Auto zoom display system and method
US20100259610A1 (en) * 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04263741A (ja) * 1991-01-11 1992-09-18 Mitsubishi Electric Corp 温風暖房機
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
JP2008543226A (ja) * 2005-05-31 2008-11-27 スリーエム イノベイティブ プロパティズ カンパニー 容量性タッチセンサーにおける漂遊容量の検出および漂遊容量の補正
JP2008544352A (ja) * 2005-06-08 2008-12-04 スリーエム イノベイティブ プロパティズ カンパニー 多数のタッチ位置法を含むタッチ位置決定方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8891025B2 (en) 2010-11-24 2014-11-18 Panasonic Corporation Information processing device
WO2012070161A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 情報処理装置
JP2012164115A (ja) * 2011-02-07 2012-08-30 Fujitsu Ltd 操作制御装置,操作制御プログラムおよび操作制御方法
US9417703B2 (en) 2011-04-20 2016-08-16 Koninklijke Philips N.V. Gesture based control of element or item
JP2014512060A (ja) * 2011-04-20 2014-05-19 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャーに基づく要素又はアイテムの制御
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2013541110A (ja) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド ジェスチャベースの入力のスケーリング
JP2015508539A (ja) * 2012-01-09 2015-03-19 サムスン エレクトロニクス カンパニー リミテッド 表示装置及びその制御方法
JP2013149049A (ja) * 2012-01-19 2013-08-01 Kyocera Corp タッチパネル式入力装置
JP2016148653A (ja) * 2016-01-21 2016-08-18 パイオニア株式会社 物体検出装置、物体検出方法、物体検出用プログラム及び情報記録媒体
CN109262606A (zh) * 2017-07-18 2019-01-25 松下知识产权经营株式会社 装置、方法、程序以及机器人
CN109262606B (zh) * 2017-07-18 2023-10-27 松下知识产权经营株式会社 装置、方法、记录介质以及机器人
JP2018028543A (ja) * 2017-09-19 2018-02-22 パイオニア株式会社 物体検出装置、物体検出方法、物体検出用プログラム及び情報記録媒体
JP2019194596A (ja) * 2019-06-03 2019-11-07 パイオニア株式会社 物体検出装置
JP2021152539A (ja) * 2019-06-03 2021-09-30 パイオニア株式会社 物体検出装置

Also Published As

Publication number Publication date
US8947463B2 (en) 2015-02-03
JP5182202B2 (ja) 2013-04-17
EP2241964B1 (en) 2016-10-05
US20100283730A1 (en) 2010-11-11
CN101866214A (zh) 2010-10-20
EP2241964A2 (en) 2010-10-20
CN101866214B (zh) 2012-12-05
EP2241964A3 (en) 2011-01-05
RU2010114740A (ru) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5182202B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR102194272B1 (ko) 제스처들을 이용한 터치 입력들의 향상
JP5282617B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6036807B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5638896B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
EP3226537B1 (en) Mobile terminal and method for controlling the same
JP5732218B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
EP3239823A1 (en) Display control apparatus, method and program
WO2012165867A2 (en) Method and apparatus for controlling a display of multimedia content using a timeline-based interface
US20130182898A1 (en) Image processing device, method thereof, and program
EP2530675A2 (en) Information processing apparatus, information processing method, and program
JP6119570B2 (ja) 表示装置、表示方法およびプログラム
KR20180018561A (ko) 이미지 영역을 선택 및 추적함으로써 비디오를 확대축소하기 위한 장치 및 방법
TW201126406A (en) Device, method & computer program product
WO2014176912A1 (en) Two dimensional-code scanning method and device
EP2722748A2 (en) Method and apparatus for displaying data in terminal
EP3001294B1 (en) Mobile terminal and method for controlling the same
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP2016115067A (ja) 画像表示端末、画像表示システム及び画像表示プログラム
EP3089014A1 (en) Information processing system, information processing method, and program
US10976912B2 (en) Information processing device, information processing method, and recording medium
KR101944828B1 (ko) 미디어 시스템, 전자 장치, 원격 제어 장치 및 컨텐츠의 줌을 조절하기 위한 방법
EP3040820B1 (en) Content playback apparatus and content playing method
KR101995423B1 (ko) 미디어 시스템, 전자 장치 및 채널 리스트를 이동하기 위한 방법
KR102026728B1 (ko) 미디어 시스템, 전자 장치, 화면 인터페이스 피드백 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121231

R151 Written notification of patent or utility model registration

Ref document number: 5182202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees