JPWO2014030290A1 - 電子機器、機器操作方法およびプログラム - Google Patents

電子機器、機器操作方法およびプログラム Download PDF

Info

Publication number
JPWO2014030290A1
JPWO2014030290A1 JP2014531486A JP2014531486A JPWO2014030290A1 JP WO2014030290 A1 JPWO2014030290 A1 JP WO2014030290A1 JP 2014531486 A JP2014531486 A JP 2014531486A JP 2014531486 A JP2014531486 A JP 2014531486A JP WO2014030290 A1 JPWO2014030290 A1 JP WO2014030290A1
Authority
JP
Japan
Prior art keywords
knob
slider
display
adjustment
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014531486A
Other languages
English (en)
Other versions
JP6070708B2 (ja
Inventor
須藤 一郎
一郎 須藤
下里 努
努 下里
典生 若槻
典生 若槻
勝彦 相原
勝彦 相原
卓司 守屋
卓司 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014030290A1 publication Critical patent/JPWO2014030290A1/ja
Application granted granted Critical
Publication of JP6070708B2 publication Critical patent/JP6070708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Abstract

【課題】複雑な機構の操作部材を必要としない簡単な構成で、良好な操作が行えるようにする。【解決手段】調整位置または数値をユーザ操作に基づいて設定するための設定画面の表示処理と、その表示処理で表示した設定画面上のユーザ操作によるツマミの位置の変化に対応して、調整位置または数値を変更する制御処理とを含む。表示処理は、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、ユーザ操作がない場合に、ツマミの位置をスライダ上のデフォルト位置とする。【選択図】図7

Description

本開示は、ビデオカメラなどの電子機器、および電子機器を操作する機器操作方法、並びに電子機器の操作を実行するプログラムに関する。
従来、ビデオカメラにおいては、ズーム調整レバーやフォーカス調整レバーを設けて、ユーザによるそれぞれのレバーの操作で、レンズのズーム調整やフォーカス調整を行うようにしたものがある。
通常、ズーム調整レバーやフォーカス調整レバーは、ユーザが触れていない状態では中点に位置する。そして、ユーザが一方(+方向)にレバーを押すことで、その押す強さに応じた速度で、ズームレンズやフォーカスレンズが一方に移動する。また、ユーザが他方(−方向)にレバーを押すことで、その押す強さに応じた速度で、ズームレンズやフォーカスレンズが逆方向(他方)に移動する。
このようなズーム調整レバーやフォーカス調整レバーがあるビデオカメラは、ユーザによるズームレンズやフォーカスレンズの調整が、それぞれのレバーの操作で簡単にできる。
特許文献1には、ビデオカメラにズーム調整用のレバーを設けて、そのレバーの操作状態で可変速ズームを行う点についての記載がある。
特開平6−273658号公報
上述したズーム調整レバーやフォーカス調整レバーは、ユーザがレバーを押した際の操作量を検出して、調整機構の駆動速度の調節を行う必要があり、比較的複雑な機構の操作部材である。+方向の操作を指示するボタンと、−方向の操作を指示するボタンの2つのボタンを並べて配置することで、レバーの代わりにすることもできるが、この2つのボタンの場合には、+方向の動きのオン・オフの指示と、−方向の動きのオン・オフの指示が行えるだけであり、ズームレンズやフォーカスレンズを駆動する速度の指示はできない。
また、ビデオカメラは、ユーザがカメラ本体に配置されたキーなどで操作する場合の他に、リモートコントローラを使用して、外部から操作する場合もある。リモートコントローラを使用する場合、リモートコントローラにズーム調整レバーやフォーカス調整レバーに相当するレバーが配置されていないと、ズームレンズやフォーカスレンズを駆動する際の速度調整はできない。
なお、ここまではビデオカメラを操作する場合について説明したが、同様の調整レバーにより操作が可能な各種電子機器には、同様の課題がある。
本開示の目的は、複雑な機構の操作部材を必要としない簡単な構成で、良好な操作が行える電子機器、機器操作方法およびプログラムを提供することである。
本開示の電子機器は、調整位置または数値が設定可能な処理部を備えた電子機器である。そして、その電子機器の調整位置または数値の設定画面を表示させる表示制御部と、調整位置または数値を変更する動作制御部とを備える。
表示制御部は、調整位置または数値の設定画面として、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、ユーザ操作がない場合に、ツマミの位置をスライダ上のデフォルト位置とする。
動作制御部は、表示制御部の制御で表示した設定画面上のユーザ操作によるツマミの位置の変化に対応して、調整位置または数値を変更する。
本開示の機器操作方法は、調整位置または数値をユーザ操作に基づいて設定するための設定画面の表示処理と、その表示処理で表示した設定画面上のユーザ操作によるツマミの位置の変化に対応して、調整位置または数値を変更する制御処理とを含む。
表示処理は、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、ユーザ操作がない場合に、ツマミの位置をスライダ上のデフォルト位置とする。
本開示のプログラムは、表示手順と制御手順とを実行させるためのプログラムである。
表示手順は、調整位置または数値をユーザ操作に基づいて設定するための設定画面として、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、ユーザ操作がない場合に、ツマミの位置をスライダ上のデフォルト位置とする。
制御手順は、表示手順により表示した設定画面上のユーザ操作によるツマミの位置の変化に対応して、調整位置またはパラメータを変更する。
本開示によると、スライダ上を移動するツマミの位置が、無操作時に中央などのデフォルト位置になり、ユーザ操作時にその中央の位置からユーザ操作状態に応じて移動し、調整位置または数値が変化するようになる。そのため、ユーザがツマミの操作を行っている間だけ、調整位置またはパラメータが変化し、ユーザが操作を止めると、調整位置または数値の変化が停止する。
本開示によると、ユーザがツマミの操作を行っている間だけ、調整対象の調整位置または数値が変化し、ユーザが操作を止めると、調整位置または数値の変化が停止するようになる。このため、ユーザの意志を忠実に反映した良好な操作速度や操作方向などの設定が可能なり、良好な操作性が得られる。
本開示の一実施の形態による電子機器(ビデオカメラ)の構成例を示すブロック図である。 本開示の一実施の形態による端末装置の構成例を示すブロック図である。 本開示の一実施の形態による電子機器と端末装置の通信状態の例を示すシーケンス図である。 本開示の一実施の形態による端末装置の操作画面の表示例(例1)を示す説明図である。 本開示の一実施の形態による端末装置の操作画面の表示例(例2)を示す説明図である。 本開示の一実施の形態による制御処理例(例1)を示すフローチャートである。 図6の例による操作画面の例を示す説明図である。 スライド方向と駆動速度との関係の例を示す特性図である。 本開示の一実施の形態による制御処理例(例2)を示すフローチャートである。 図9の例による操作画面の例を示す説明図である。
本開示の一実施の形態に係る電子機器、機器操作方法およびプログラムの例を、図面を参照しながら、以下の順で説明する。
1.ビデオカメラの構成例(図1)
2.端末装置の構成例(図2)
3.通信状態の例(図3)
4.操作画面の例(スマートフォンの例:図4)
5.操作画面の例(タブレット端末の例:図5)
6.ユーザ操作時の処理例(例1:図6〜図8)
7.ユーザ操作時の処理例(例2:図9〜図10)
8.変形例
[1.ビデオカメラの構成例]
図1は、本開示の一実施の形態の例に係る電子機器の構成例を示す図である。ここでは、電子機器としてビデオカメラに適用した例を示す。
ビデオカメラ100はイメージャ121を備え、装着されたレンズ部110で得た像光がイメージャ121に入射する。イメージャ121には、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサが使用される。
レンズ部110は、ズームレンズ111とフォーカスレンズ112とを備え、ズーム調整とフォーカス調整が可能なレンズである。ズームレンズ111は、ズームレンズ駆動部113により駆動される。フォーカスレンズ112は、フォーカスレンズ駆動部114により駆動される。また、ビデオカメラ100は、ズームレンズ111やフォーカスレンズ112の位置を検出するセンサ115を備える。また、レンズ部110はアイリス116を備える。アイリス116は、アイリス駆動部117により駆動される。
ズームレンズ駆動部113やフォーカスレンズ駆動部114による各レンズの駆動は、制御部131からの指令により行われる。この場合、各駆動部113,114がズームレンズ111やフォーカスレンズ112の位置を移動させる速度が、制御部131からの指令で設定される。
アイリス駆動部117によるアイリスの駆動についても、制御部131からの指令により行われる。また、センサ115が検出したズームレンズ111やフォーカスレンズ112の位置のデータが、制御部131に伝送される。
イメージャ121が撮像して得た撮像信号が、撮像処理部122に供給される。撮像処理部122は、撮像信号に各種処理を施すと共に、撮像信号を所定のフォーマットの画像信号に変換する。後述するホワイトバランス調整についても、撮像処理部122が実行する。撮像処理部122が出力する画像信号が、記録再生部123に供給され、記録再生部123に接続されたモニタ124が画像の表示を行うと共に、記録メディア125が画像信号の記録を行う。記録メディア125は、例えば半導体メモリを内蔵したメモリカードや、ハードディスクドライブ装置などが使用される。また、ビデオカメラ100は、図示しない出力端子から画像信号を出力することができる。
また、記録再生部123には、外部インターフェース部126を介して無線通信部127が接続してある。無線通信部127は、アンテナ128を備え、数mから数十m程度の近距離の範囲内の相手と無線通信を行う。無線通信部127は、例えば無線LAN(Local Area Network)の規格に準拠した無線通信を行う。ビデオカメラ100は、この無線通信部127による無線通信を行い、このビデオカメラ100内の処理ブロックの動作を指示する指令などを受信する。また、ビデオカメラ100は、撮像して得た画像信号などを無線通信部127が無線送信する。無線通信部127が無線通信をする相手は、後述する端末装置200の他に、無線LAN用のアクセスポイントである場合もある。
ビデオカメラ100の各部の動作を制御する動作制御部である制御部131は、内部バスラインを介してビデオカメラ100内の各部と通信を行う。メモリ133には、制御部131が制御処理を行う上で必要なプログラムが記憶される。この場合、ビデオカメラ100が無線通信部127を介して外部の端末装置と通信を行う際に、ビデオカメラがサーバとして機能するために必要なプログラムについても、メモリ133に記憶される。制御部131は、このサーバとして機能するために必要なプログラムを実行することで、HTTPサーバ132が形成される。このHTTPサーバ132は、HTTP(HyperText Transfer Protocol)のプロトコルで、端末装置と通信を行うものである。本開示のビデオカメラ100の場合、HTTPサーバ132が外部の端末装置と通信を行うことで、外部の端末装置がビデオカメラ100のリモートコントローラになる。HTTPサーバ132は、操作画面の表示を制御する表示制御部として機能し、HTTPサーバ132が、表示する操作画面を生成するのに必要なデータを外部の端末装置に送る。
また、ビデオカメラ100は、操作部134を備える。操作部134は、操作キーやタッチパネルなどを有する。ユーザが操作部134を操作することで、制御部131に操作指令が届き、制御部131が指示された操作状態に各部を制御する。HTTPサーバ132が外部の端末装置と通信を行った際に、外部の端末装置からHTTPサーバ132に操作指令が伝送される場合にも、同様に制御部131が指示された操作状態に各部を制御する。
[2.端末装置の構成例]
図2は、ビデオカメラ100が無線通信を行う相手である端末装置200の構成例を示す図である。端末装置200は、スマートフォンと称される比較的小型の端末装置である場合と、タブレット端末と称される、比較的大型の表示パネルを備えた端末装置である場合とがある。いずれの場合でも、端末装置200の内部の基本的な構成は同じであり、主な相違点は表示パネルのサイズである。
端末装置200は、アンテナ201が接続された無線通信部202を備える。無線通信部202は、無線LANの規格に準拠した無線通信を行う。無線通信部202での無線通信は、制御部205の制御下で実行される。また、制御部205は、表示部210の表示を制御する。
端末装置200は、タッチパネル部203を備え、表示部210が備える表示パネル211(図4)の表面が指またはペンでタッチされたことを、タッチパネル部203が検出する。タッチパネル部203は、例えば、静電容量方式のものを使用する。タッチパネル部203が検出した検出信号が、制御部205に供給される。なお、表示部210とタッチパネル部203は、一体に構成される場合もある。また、端末装置200は、操作キーなどが配置された操作部204を備える。操作部204がタッチパネルを備えてもよい。
端末装置200は、例えばビデオカメラ100と無線通信を行い、ビデオカメラ100内のHTTPサーバ132にアクセスすることで、端末装置200がビデオカメラ100のリモートコントローラになる。すなわち、端末装置200の制御部205がビデオカメラ100のHTTPサーバ132にアクセスして、表示部210が操作画面を表示するのに必要なデータを制御部205が取得する。このときには、例えば制御部205がウェブブラウザのソフトウェア(プログラム)を使用して、HTTPサーバ132にアクセスする。そして、その取得したデータに基づいた操作画面が、表示部210に表示される。操作画面の表示データは、ウェブブラウザの実行により生成される。この操作画面は、ビデオカメラ100の状態をリアルタイムで反映したものであり、操作画面が調整状態などの値を表示する。
[3.通信状態の例]
図3は、ビデオカメラ100の無線通信部127と、端末装置200の無線通信部202とが、無線通信を行う場合の手順を示す図である。
まず、端末装置200の制御部205が、ビデオカメラ100のHTTPサーバ132にアクセスする(ステップS11)。その後、HTTPサーバ132と制御部205とで、相互に相手の認証処理を行う(ステップS12)。このとき、HTTPサーバ132は、アクセスがあった端末装置200についての詳細を認識する。具体的には、HTTPサーバ132は、スマートフォンと称される比較的小型の表示パネルを備えた端末装置からのアクセスであるか、あるいは、タブレット端末と称される比較的大型の表示パネルを備えた端末装置からのアクセスであるかを判断する。この判断により、HTTPサーバ132は、端末装置200に送信する操作画面を、該端末装置200の画面の仕様に対応したものに設定する。それぞれの操作画面の具体例は後述する。
HTTPサーバ132は、認証処理が完了すると、操作画面のデータの端末装置200への送信を開始する(ステップS13)。操作画面のデータを端末装置200が受信することで、表示部210に操作画面が表示される。
そして、タッチパネル部203が、操作画面に表示されたボタンやツマミに対するタッチ操作を検出すると(ステップS14)、制御部205が、その検出したタッチ操作に基づいた操作指令を生成し、操作指令がHTTPサーバ132に伝送される(ステップS15)。なお、タッチパネル部203が連続したユーザ操作を検出したときには、例えば100ミリ秒程度の一定間隔で操作指令がHTTPサーバ132に伝送される。
操作指令を受信したHTTPサーバ132は、その操作指令を制御部131に伝え、制御部131が操作指令に対応した指令を、ビデオカメラ100内の各処理部に伝送する(ステップS16)。この指令を受信したビデオカメラ100内の各処理部は、指令に基づく処理を実行する。例えば、HTTPサーバ132が、ズーム操作に関する指令を受信したとき、制御部131が、そのズーム操作指令に基づいたズームレンズ駆動指令をズームレンズ駆動部113に伝送する。また、HTTPサーバ132が、フォーカス操作に関する指令を受信したとき、制御部131が、そのフォーカス操作指令に基づいたフォーカスレンズ駆動指令をフォーカスレンズ駆動部114に伝送する。
また、HTTPサーバ132は、受信した操作指令に基づいて、端末装置200に伝送する操作画面のデータを更新する。
[4.操作画面の例]
図4は、端末装置200の表示パネル211が表示する操作画面を示す図である。図4の例は、スマートフォンと称される比較的小型の表示パネル211を備えた端末装置200の場合である。
このスマートフォンの場合には、表示モードにより4種類の操作画面が表示される。図4A〜Dは、この4種類の操作画面を示すものである。いずれの操作画面を表示する場合であっても、表示パネル211は、画面の上端に、端末装置200自身の状態を示すステータスバー310が表示される。ステータスバー310は、電池残量,現在時刻,無線通信状態などを図形や数字などで示す。このステータスバー310は、端末装置200の制御部205が表示内容を更新する。ステータスバー310以外の表示箇所は、ビデオカメラ100側から伝送されるデータにより表示内容が更新される。
図4Aは、レンズ操作画面である。このレンズ操作画面は、画面の下側のレンズタブ331がユーザによりタッチ操作されたとき表示される。レンズ操作画面の上側には、録画キー321とロックキー322とが表示される。録画キー321は、録画の開始や停止を指示するキーである。ロックキー322は、録画キー321のロックおよび解除を指示するキーである。ロックキー322は、ユーザがタッチ位置を右横にスライドさせることで、ロックまたは解除の指示が行われる。この録画キー321とロックキー322は、4種類の操作画面のいずれを表示するモードの場合でも表示される。
また、レンズ操作画面は、オートアイリスキー323と、オートフォーカスキー324と、アイリス調整用スライダ340と、フォーカス調整用スライダ350と、ズーム調整用スライダ360とを表示する。また、レンズ操作画面は、アイリス調整値表示部342と、フォーカス調整値表示部352と、ズーム調整値表示部362とを表示する。これらの調整値表示部342,352,362は、各スライダ340,350,360の左脇に配置される。アイリス調整値表示部342は、F値を表示する。フォーカス調整値表示部352と、ズーム調整値表示部362は、センサ115が検出したレンズ位置に対応した値を表示する。レンズ位置のそれぞれの値は、例えば0〜99の範囲の値として、フォーカス調整状態やズーム調整状態の目安が判るようにする。あるいは、センサ115が、フォーカスレンズの合焦距離やズームレンズの焦点距離を検出できる場合には、それらの値を各調整値表示部352,362が表示してもよい。
オートアイリスキー323がユーザによるタッチ操作で選択されたとき、ビデオカメラ100は、レンズ部110のアイリス116の調整値を自動で設定する。オートフォーカスキー324がユーザによるタッチ操作で選択されたとき、ビデオカメラ100は、レンズ部110のフォーカスレンズ112の調整値を自動で設定する。
アイリス調整用スライダ340の上には、ツマミ341を表示する。アイリス調整用スライダ340上のツマミ341の表示位置が、アイリス116の調整状態に対応する。アイリス調整用スライダ340は、一定間隔の目盛りを有する。
図4Aの例では、ツマミ341は、アイリス調整用スライダ340上のほぼ中央に配置された状態を示すが、アイリス116の調整状態により、アイリス調整用スライダ340上のツマミ341の位置が変化する。したがって、ツマミ341が図4Aに示すように中央に配置されるのは1つの例であり、アイリス116の調整状態により、ツマミ341の位置は随時変化する。
なお、オートアイリスキー323のユーザ操作でオートアイリスモードが設定されている場合には、アイリス調整用スライダ340上のツマミ341が、本来の輝度よりも低い輝度で表示される。このように低い輝度でツマミ341が表示されることで、アイリスのユーザ操作ができないモードであることが告知される。
フォーカス調整用スライダ350は、ツマミ351を表示する。このツマミ351は、ユーザ操作が行われていない状態では、フォーカス調整用スライダ350上の中央の基準となるデフォルト位置に配置してある。そして、ユーザがツマミ351をデフォルト位置からスライドさせるドラッグ操作を行ったとき、そのツマミ351が移動した方向と移動量に対応して、フォーカスレンズ112の駆動が行われる。ユーザがツマミ351のタッチ操作を止めたとき、ツマミ351の表示位置はデフォルト位置に戻り、フォーカスレンズ112の駆動が停止する。
なお、オートフォーカスキー324のユーザ操作でオートフォーカスモードが設定されている場合には、フォーカス調整用スライダ350上のツマミ351が、本来の輝度よりも低い輝度で表示される。このように低い輝度でツマミ351が表示されることで、フォーカスのユーザ操作ができないモードであることが告知される。
ズーム調整用スライダ360は、ツマミ361を表示する。このツマミ361は、ユーザ操作が行われていない状態では、ズーム調整用スライダ360上の中央の特定位置(デフォルト位置)に配置してある。そして、ユーザがツマミ361をデフォルト位置からスライドさせるドラッグ操作を行ったとき、そのツマミ361が移動した方向と移動量に対応して、ズームレンズ111の駆動が行われる。ユーザがツマミ361のタッチ操作を止めたとき、ツマミ361の表示位置はデフォルト位置に戻り、ズームレンズ111の駆動が停止してズームレンズ111はタッチ操作を止めた時点の位置で停止する。フォーカス調整用スライダ350とズーム調整用スライダ360については、一定間隔の目盛りがなく、デフォルト位置を示す印だけを有する。
なお、このツマミ351,361をタッチ操作したときの動作については、図6のフローチャートで詳細に説明する。
図4Bは、ホワイトバランス操作画面である。このホワイトバランス操作画面は、画面の下側のホワイトバランスタブ332がユーザによりタッチ操作されたとき表示される。ホワイトバランス操作画面は、オートトラッキングホワイトバランス(ATW)キー325と、オートホワイトバランス(ATW)キー325と、Rゲイン調整用スライダ370と、Bゲイン調整用スライダ380とを表示する。また、ホワイトバランス操作画面は、Rゲイン調整値表示部372と、Bゲイン調整値表示部382とを表示する。これらの調整値表示部372,382は、Bゲイン調整用スライダ380の左脇に配置される。
Rゲイン調整用スライダ370は、ツマミ371を表示し、Rゲイン調整用スライダ370上のツマミ371の表示位置が、Rゲインの調整状態に対応する。Bゲイン調整用スライダ380は、ツマミ381を表示し、Bゲイン調整用スライダ380上のツマミ381の表示位置が、ゲインの調整状態に対応する。Rゲイン調整用スライダ370とBゲイン調整用スライダ380は、一定間隔の目盛りを有する。
図4Cは、再生操作画面である。この再生操作画面は、画面の下側の再生タブ333がユーザによりタッチ操作されたとき表示される。再生操作画面には、ビデオカメラ100の記録メディア125が記録した画像信号の各種再生状態や再生停止などを指示する複数の再生操作キー391が表示される。
図4Dは、インフォメーション画面である。このインフォメーション画面は、画面の下側のインフォメーションタブ334がユーザによりタッチ操作されたとき表示される。インフォメーション画面は、通信相手のビデオカメラ100の型式名とシリアル番号などを表示するインフォメーション部392を備える。インフォメーション部392は、ビデオカメラ100をリモートコントロールすることが可能か否かの情報についても表示する。
[5.操作画面の例]
図5は、ビデオカメラ100と無線通信を行う端末装置200が、タブレット端末である場合の、操作画面の例である。
このタブレット端末の場合には、比較的大型の表示パネル211′を備えるため、1つの操作画面で全ての表示が行われる。すなわち、タブレット端末の場合には、図4A〜Dに示すスマートフォン用の4つの操作画面を1つに集約した表示が行われる。
具体的には、表示パネル211′には、画面の上端に、端末装置200自身の状態を示すステータスバー410が表示される。また、録画キー421とロックキー422とが表示される。
そして、表示パネル211′には、アイリス調整用スライダ430と、フォーカス調整用スライダ440と、ズーム調整用スライダ450と、Rゲイン調整用スライダ460と、Bゲイン調整用スライダ470とが表示される。それぞれの調整用スライダ430,440,450,460,470は、ツマミ431,441,451,461,471を表示する。
なお、フォーカス調整用スライダ440のツマミ441とズーム調整用スライダ450のツマミ451は、スライダ上の中央をデフォルト位置に設定してあり、ユーザがドラッグ操作を行ったときだけ、デフォルト位置から移動する。
各調整用スライダ430,440,450,460,470の左脇には、調整値表示部342,442,452,462,472が表示される。
また、表示パネル211′には、オートアイリスキー481と、オートフォーカスキー482と、オートトラッキングホワイトバランスキー483と、オートホワイトバランスキー484とが表示される。
さらに、表示パネル211′には、複数の再生操作キー491と、インフォメーション部492とが表示される。
[6.ユーザ操作時の処理例:例1]
次に、図6のフローチャートに基づいて、ユーザが操作画面をタッチして操作した場合の処理例(例1)を説明する。
ここでは、図4Aに示すレンズ操作画面内のフォーカス調整用スライダ350上のツマミ351をユーザがタッチ操作した場合とする。なお、図4Aに示すレンズ操作画面内のズーム調整用スライダ360上のツマミ361をユーザがタッチ操作した場合にも、同様の処理動作が行われる。
まず、端末装置200の制御部205は、フォーカス調整用スライダ350のセンタのデフォルト位置のツマミ351にユーザの指などのタッチがあるか否かを判断する(ステップS21)。この判断で、ツマミ351にタッチがないと判断した場合には、フォーカス調整を行わないで待機する。
そして、ステップS21でタッチがあると判断したときには、制御部205は、そのデフォルト位置(センタ位置)からフォーカス調整用スライダ350に沿ってタッチ位置をスライドさせるドラッグ操作があるか否かを判断する(ステップS22)。ドラッグ操作がない場合には、制御部205はステップS21の判断に戻る。
そして、ステップS22でドラッグ操作があると判断した場合には、制御部205はそのドラッグ操作が行われたタッチ位置の変化に追随して、ツマミ351のフォーカス調整用スライダ350上の表示位置を変更させる(ステップS23)。さらに制御部205は、センタからのドラッグ操作があった方向とドラッグ操作でスライドした量に基づいて、方向と速度を指示する指令を生成し、その指令をビデオカメラ100側に送信する(ステップS24)。この指令の送信は、タッチ操作が継続している間、一定周期(例えば100ミリ秒)で行われる。
その後、制御部205は、ユーザによるツマミ351のタッチが継続しているか否かを判断する(ステップS25)。ここで、タッチが継続していると判断したとき、制御部205は、タッチ位置に変化があるか否かを判断し(ステップS26)、タッチ位置に変化がない場合には、ステップS25の判断に戻る。また、ステップS26でタッチ位置に変化があると判断した場合には、制御部205は、ステップS23の判断に戻る。
そして、ステップS25でツマミ351のタッチが終了したと判断したとき、制御部205からビデオカメラ100側への指令の送信が停止する(ステップS27)。また、ビデオカメラ100側のHTTPサーバ132からの指示に基づいて、ツマミ351の表示位置が、センタのフォルト位置に戻る(ステップS28)。その後、制御部205は、ステップS21の判断に戻る。
図7Aの表示例は、フォーカス調整用スライダ350のセンタのデフォルト位置のツマミ351にユーザの指f1がタッチした状態を示す。この指f1がツマミ351の表示位置にタッチすることで、制御部205は、ステップS21からステップS22の判断に移行する。
図7Bの表示例は、指f2のタッチ位置がデフォルト位置を基点としてフォーカス調整用スライダ350に沿って右側にスライドしたときの状態を示す。このようにタッチ位置がスライドすることで、フォーカスレンズ112のフォーカス調整位置が+方向(ここでは遠方)で、そのスライド量に対応した速度のフォーカス調整指令が端末装置200からビデオカメラ100に伝送される。タッチ位置がセンタからスライドする方向が図7Bの例とは逆である場合には、フォーカスレンズ112のフォーカス調整位置が−方向(ここでは近方)のフォーカス調整指令になる。
この図7Bに示す状態で、ユーザの指によるタッチ位置が変化したときには、そのタッチ位置に応じて、フォーカス調整指令の速度や方向が変化する。
図7Cの表示例は、ユーザの指f3が画面から離れた状態を示す。ユーザの指f3が画面から離れると同時に、フォーカス調整指令の伝送が停止する。そして、図7Cに示すように、ツマミ351の位置がデフォルト位置に自動的に戻る。このときには、ツマミ351が図7Bに示すスライド位置からデフォルト位置に、若干の時間(例えば0.5秒程度の時間)をかけて徐々に移動させる。このように若干の時間をかけてツマミ351が元のデフォルト位置に戻ることで、ツマミ351の動きがユーザにわかり易く告知され、良好な表示形態となる。そして、フォーカス調整指令の伝送については、ユーザの指f3が画面から離れると同時に送信が停止するため、ユーザが意図した通りの状態に正確に調整できる。したがって、ビデオカメラ100は、タッチパネルを使用して、メカ的な調整レバーを設けた場合と同様の操作性が得られる。
なお、ユーザの指f3が画面から離れた際には、直ちにツマミ351が元のデフォルト位置に戻るようにしてもよい。また、ユーザ操作によるモード切替えで、ツマミ351が元のデフォルト位置に戻る際の速さが、自由に調整できるようにしてもよい。
また、図7Cでは、ユーザの指f3が画面から離れた場合に、ツマミ351がデフォルト位置に戻る様子を説明したが、ユーザの指f3がタッチする画面上の位置が、ツマミ351の表示位置以外になったときにも、ツマミ351は元のデフォルト位置に戻る。
図8は、フォーカス調整用スライダ350上のデフォルト位置(センタ位置)から、タッチ操作でツマミ351を移動させたときの画面上の移動量と、フォーカスレンズ駆動部114によるフォーカスレンズ112の駆動速度との特性Vaを示す図である。
図8の横軸は、センタ位置(0と示す位置)からのツマミ351のシフト量(シフト距離)を示す。図8の縦軸は、それぞれのシフト量のときの指令で設定されるフォーカスレンズ112の駆動速度を示す。フォーカスレンズ112の駆動方向は、センタ位置を境にして逆になる。
図8に特性Vaとして示すように、センタ位置からの距離が長くなるに従って、駆動速度が徐々に高速になるようにし、逆にセンタからの位置からの距離が短い場合には、駆動速度が低速になるようにしてある。このような曲線の特性Vaを設定することで、遠いフォーカス位置に高速で移動させる操作と、合焦点などの近傍で微妙なフォーカス調整を行う操作とが両立できる。
図8に示す曲線の速度変化特性Vaは1つの例であり、例えば、シフト量と駆動速度とが直線的に変化する特性としてもよい。
なお、図6〜図8では、ユーザが操作画面上のフォーカス調整用スライダ350を操作したときの動作を説明したが、ユーザが操作画面上のズーム調整用スライダ360を操作したときについても、同様の動作が行われる。すなわち、ズーム調整用スライダ360上のツマミ361についても、ユーザ操作がない状態では、センタ位置に表示させる。そして、センタ位置からツマミ361をスライドさせるユーザ操作があったとき、端末装置200は、ズームレンズ111の駆動速度と駆動方向を指示するズーム調整指令を伝送する。さらに、ユーザの指が操作画面から離れたとき、端末装置200は、ズーム調整指令の出力を停止し、ツマミ361の表示位置をセンタ位置に戻す処理を行う。
このようにズーム操作に適用することで、ユーザが意図した通りのズーム状態に正確に調整できる。
図4に示すその他の調整用スライダ340,370,380については、ツマミ341,371,381がそのときの調整状態を示す位置とする。図4の例の場合、ツマミがデフォルト位置に戻るスライダであることは、スライダ上の目盛りの有無で区別できる。
図5に示すタブレット端末用の操作画面での操作についても、同様の処理を適用する。すなわち、図5に示すタブレット端末用の操作画面内のフォーカス調整用スライダ440と、ズーム調整用スライダ450について、図6のフローチャートに示す処理を行う。フォーカス調整用スライダ440とズーム調整用スライダ450以外の調整用スライダ430,460,470については、ツマミ431,461,471がそのときの調整状態を示す位置になる。
[7.ユーザ操作時の処理例:例2]
次に、図9のフローチャートおよび図10の表示例に基づいて、ユーザが操作画面をタッチして操作した場合の処理例(例2)を説明する。図9のフローチャートにおいて、図6のフローチャートと同じ処理には同じステップ番号を付与する。
例1の場合には、最初にユーザがフォーカス調整用スライダ350上のデフォルト位置のツマミ351をタッチすることで、ツマミ351が位置を移動できるようにした。これに対して、例2の場合には、フォーカス調整用スライダ350上のデフォルト位置にツマミ351が配置された状態で、ユーザがフォーカス調整用スライダ350上の任意の箇所をタッチしたとき、そのタッチ位置にツマミ351が移動するようにしたものである。
すなわち、図9に示すように、端末装置200の制御部205は、フォーカス調整用スライダ350のいずれかの位置にユーザの指などのタッチがあるか否かを判断する(ステップS31)。この判断で、フォーカス調整用スライダ350のいずれかの位置にタッチがないと判断した場合には、フォーカス調整を行わないで待機する。
そして、ステップS31でタッチがあると判断した場合、制御部205は、ツマミ351のフォーカス調整用スライダ350上の表示位置を、タッチに変更させる(ステップS23)。このときには、ツマミ351は、例えばデフォルト位置からタッチ位置に直ちに移動するようにする。あるいは、ある程度の時間をかけて、ツマミ351がデフォルト位置からタッチ位置に移動するようにしてもよい。
ステップS23以降の処理は、図6のフローチャートと同じである。
図10Aの表示例は、フォーカス調整用スライダ350上のセンタ以外の特定位置にユーザの指f11がタッチした状態を示す。このように指f11がタッチすることで、制御部205は、ステップS31でのタッチ検出が行われる。
この図10Aに示す状態のタッチ検出が行われることで、操作画面は、図10Bに示す状態に変化する。すなわち、ツマミ351の表示位置が、フォーカス調整用スライダ350上のタッチ位置tに変化する。そして、このときのツマミ351の位置に対応した方向と速度のフォーカス調整指令が端末装置200からビデオカメラ100に伝送されるようになる。
ユーザの指が操作画面から離れた場合の処理は、図7に示す例1と同じである。
すなわち、図10Cに示すように、ユーザの指f12が画面から離れると同時に、フォーカス調整指令の伝送が停止する。そして、図10Cに示すように、ツマミ351の位置がデフォルト位置に自動的に戻る。このとき、ツマミ351が図10Bに示すスライド位置からデフォルト位置に、決められた時間をかけて徐々に移動させる。あるいは、ユーザの指f12が画面から離れた際に、直ちにツマミ351が元のデフォルト位置に戻るようにする。
図9および図10で説明した例2の場合には、操作の最初にツマミ351をスライドさせる操作が必要ない。このため、例2の場合には、例1より迅速な操作が可能になる。但し、フォーカス調整用スライダ350上の位置に指が触れるだけで、直ちに操作が行われるため、誤操作が行われる可能性がある。このため、例1の処理と例2の処理は、ユーザ操作で選択できるようにするのが好ましい。
すなわち、操作モードの選択ができるようにして、第1のモードを選択したとき、制御部205は、図6のフローチャートの処理を実行し、第2のモードを選択したとき、制御部205は、図9のフローチャートの処理を実行する。このように選択できることで、端末装置200は、ユーザが好みの操作性が得られる。
[8.変形例]
なお、上述した実施の形態の例では、ビデオカメラ100をリモートコントロールする端末装置200の表示パネル211が、操作画面を表示する際の処理に、本開示の技術を適用した。これに対して、例えばビデオカメラ100の操作部134が、タッチパネル付の表示パネルを備えて、そのビデオカメラ本体の表示パネルで、同様の操作画面が表示されるようにしてもよい。この場合には、例えばビデオカメラ100の制御部131の制御下で、操作画面が表示される。
また、上述した実施の形態の例では、ビデオカメラ100がHTTPサーバ132として機能する制御部131を備えて、端末装置200が持つウェブブラウザのプログラムを使用して、端末装置200がHTTPサーバ132にアクセスするようにした。これに対して、端末装置やコンピュータ装置がリモートコントロール用の専用のプログラムを持つようにして、そのプログラムが実装された装置がリモートコントローラとして作動するようにしてもよい。この場合には、プログラムが図6や図9に示す手順を実行するようにすればよい。
制御部131が備えるHTTPサーバ132についても1つの例であり、その他のプロトコルで通信を行うサーバとしてもよい。例えば、サーバとして、リモートコントロール用の専用のプログラムの実行でアクセスされる方式のものを用意してもよい。
また、上述した実施の形態の例では、ビデオカメラ100のレンズ部110のズームレンズ111やフォーカスレンズ112を調整する場合の、操作画面の表示に本開示の技術を適用した。これに対して、その他の位置やパラメータの調整を行う際の操作画面に適用してもよい。
例えば、ユーザが、電子機器が備える時計機能を用いて現在時刻や予約時刻などの数値を入力する際に、時計の制御部が、フォーカス調整用スライダ350と同様の時刻調整用スライダを表示させる。そして、時計の制御部が、そのスライダ上のツマミのデフォルト位置からのシフト量に対応して、時刻が変化する速度や方向を設定する。
時刻以外の各種パラメータなどの数値の設定を行う際にも、同様の処理を適用してもよい。
このようにすることで、操作画面のタッチ操作で、各種数値入力が容易に行えるようになる。
また、上述した実施の形態の例では、ユーザが指で操作画面をタッチした場合の例について説明した。これに対して、専用のタッチペンなどを使用して操作画面をタッチするようにしてもよい。さらに、タッチ操作以外の方法で、操作画面上のツマミなどを選択するようにしてもよい。
例えば、端末装置200には、マウスなどのポインティングデバイスを接続する。そして、そのポインティングデバイスによる画面上のカーソル位置の設定とクリック操作後のドラッグ操作で、フォーカス調整用スライダ350のツマミ351などを選択したとき、図6のフローチャートに示す処理を行うようにする。このようにすることで、本開示の処理が、表示部がタッチパネルを備えない端末装置やコンピュータ装置にも適用できる。
また、上述した実施の形態の例では、電子機器としてビデオカメラの操作に適用した例を示した。これに対して、その他の各種電子機器に適用してもよい。端末装置についても、上述したスマートフォンやタブレット端末以外の端末装置に適用してもよい。例えば、パーソナルコンピュータ装置を端末装置に適用してもよい。
なお、本開示は以下のような構成も取ることができる。
(1)
調整位置または数値が設定可能な処理部と、
調整位置または数値の設定画面として、スライダ上をユーザ操作に応じて移動するツマミの表示を行うと共に、前記ユーザ操作がない場合に、前記ツマミの位置を前記スライダ上のデフォルト位置とする表示制御部と、
前記表示制御部の制御で表示した設定画面上のユーザ操作による前記ツマミの位置の変化に対応して、前記調整位置または数値を変更する動作制御部とを備える
電子機器。
(2)
前記処理部は、ズームレンズのズーム位置またはフォーカスレンズのフォーカス位置を設定するレンズ駆動部である
前記(1)記載の電子機器。
(3)
前記表示制御部の制御で表示する設定画面は、前記デフォルト位置のツマミのタッチ検出またはクリック操作があった後、そのタッチ検出またはクリック操作があった位置を基点にした前記スライダ上のドラッグ操作で、前記ツマミの位置を変化させる
前記(1)または(2)記載の電子機器。
(4)
前記動作制御部は、前記ドラッグ操作が行われなくなったとき、直ちに前記調整位置または数値の変更を停止し、
前記表示制御部は、前記ドラッグ操作が行われなくなったとき、所定の時間をかけて、前記ツマミの表示位置を前記スライダ上のデフォルト位置に戻すようにした
前記(3)に記載の電子機器。
(5)
前記表示制御部の制御で表示する設定画面は、前記スライダ上のタッチ検出またはクリック操作の検出で、その検出した位置に前記ツマミの位置を変化させる
前記(1)〜(4)のいずれか1項に記載の電子機器。
(6)
前記ツマミの前記デフォルト位置からの移動量に応じて、前記動作制御部は、前記調整位置またはパラメータの変更速度を変化させる
前記(1)〜(5)のいずれか1項に記載の電子機器。
(7)
前記表示制御部は、通信中の外部の端末装置が備える表示部に前記設定画面を表示させるサーバ機能部である
前記(1)〜(6)のいずれか1項に記載の電子機器。
(8)
調整位置または数値をユーザ操作に基づいて設定するための設定画面として、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、前記ユーザ操作がない場合に、前記ツマミの位置を前記スライダ上のデフォルト位置とする表示処理と、
前記表示処理で表示した設定画面上のユーザ操作による前記ツマミの位置の変化に対応して、前記調整位置または数値を変更する制御処理とを含む
機器操作方法。
(9)
調整位置または数値をユーザ操作に基づいて設定するための設定画面として、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、前記ユーザ操作がない場合に、前記ツマミの位置を前記スライダ上のデフォルト位置とする表示手順と、
前記表示手順により表示した設定画面上のユーザ操作による前記ツマミの位置の変化に対応して、前記調整位置または数値を変更する制御手順とを、
コンピュータに実行させるための
プログラム。
さらに、本発明の請求項に記載した構成や処理は、上述した実施の形態の例に限定されるものではない。本発明の要旨を逸脱しない限り、種々の改変、組み合わせ、他の実施の形態例が生じうることは、当業者にとって当然のことと理解される。
100…ビデオカメラ、110…レンズ部、111…ズームレンズ、112…フォーカスレンズ、113…ズームレンズ駆動部、114…フォーカスレンズ駆動部、115…センサ、121…イメージャ、122…撮像処理部、123…記録再生部、124…モニタ、125…記録メディア、126…外部インターフェース部、127…無線通信部、128…アンテナ、131…制御部、132…HTTPサーバ、133…メモリ、134…操作部、200…端末装置、201…アンテナ、202…無線通信部、203…タッチパネル部、204…操作キー、205…制御部、206…メモリ、210…表示部、211,211′…表示パネル、340…アイリス調整用スライダ、341…ツマミ、342…アイリス調整値表示部、350…フォーカス調整用スライダ、351…ツマミ、352…フォーカス調整値表示部、360…ズーム調整用スライダ、361…ツマミ、362…ズーム調整値表示部、430…アイリス調整用スライダ、431…ツマミ、432…アイリス調整値表示部、440…フォーカス調整用スライダ、441…ツマミ、442…フォーカス調整値表示部、450…ズーム調整用スライダ、451…ツマミ、452…ズーム調整値表示部

Claims (9)

  1. 調整位置または数値が設定可能な処理部と、
    調整位置または数値の設定画面として、スライダ上をユーザ操作に応じて移動するツマミの表示を行うと共に、前記ユーザ操作がない場合に、前記ツマミの位置を前記スライダ上のデフォルト位置とする表示制御部と、
    前記表示制御部の制御で表示した設定画面上のユーザ操作による前記ツマミの位置の変化に対応して、前記調整位置または数値を変更する動作制御部とを備える
    電子機器。
  2. 前記処理部は、ズームレンズのズーム位置またはフォーカスレンズのフォーカス位置を設定するレンズ駆動部である
    請求項1記載の電子機器。
  3. 前記表示制御部の制御で表示する設定画面は、前記デフォルト位置のツマミのタッチ検出またはクリック操作があった後、そのタッチ検出またはクリック操作があった位置を基点にした前記スライダ上のドラッグ操作で、前記ツマミの位置を変化させる
    請求項1記載の電子機器。
  4. 前記動作制御部は、前記ドラッグ操作が行われなくなったとき、直ちに前記調整位置または数値の変更を停止し、
    前記表示制御部は、前記ドラッグ操作が行われなくなったとき、所定の時間をかけて、前記ツマミの表示位置を前記スライダ上のデフォルト位置に戻すようにした
    請求項3記載の電子機器。
  5. 前記表示制御部の制御で表示する設定画面は、前記スライダ上のタッチ検出またはクリック操作の検出で、その検出した位置に前記ツマミの位置を変化させる
    請求項1記載の電子機器。
  6. 前記ツマミの前記デフォルト位置からの移動量に応じて、前記動作制御部は、前記調整位置またはパラメータの変更速度を変化させる
    請求項1記載の電子機器。
  7. 前記表示制御部は、通信中の外部の端末装置が備える表示部に前記設定画面を表示させるサーバ機能部である
    請求項1記載の電子機器。
  8. 調整位置または数値をユーザ操作に基づいて設定するための設定画面として、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、前記ユーザ操作がない場合に、前記ツマミの位置を前記スライダ上のデフォルト位置とする表示処理と、
    前記表示処理で表示した設定画面上のユーザ操作による前記ツマミの位置の変化に対応して、前記調整位置または数値を変更する制御処理とを含む
    機器操作方法。
  9. 調整位置または数値をユーザ操作に基づいて設定するための設定画面として、スライダ上をユーザ操作で移動するツマミの表示を行うと共に、前記ユーザ操作がない場合に、前記ツマミの位置を前記スライダ上のデフォルト位置とする表示手順と、
    前記表示手順により表示した設定画面上のユーザ操作による前記ツマミの位置の変化に対応して、前記調整位置または数値を変更する制御手順とを、
    コンピュータに実行させるための
    プログラム。
JP2014531486A 2012-08-20 2013-07-18 電子機器、機器操作方法およびプログラム Active JP6070708B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012181543 2012-08-20
JP2012181543 2012-08-20
PCT/JP2013/004395 WO2014030290A1 (ja) 2012-08-20 2013-07-18 電子機器、機器操作方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016255254A Division JP6384541B2 (ja) 2012-08-20 2016-12-28 電子機器、機器操作方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2014030290A1 true JPWO2014030290A1 (ja) 2016-07-28
JP6070708B2 JP6070708B2 (ja) 2017-02-01

Family

ID=50149622

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014531486A Active JP6070708B2 (ja) 2012-08-20 2013-07-18 電子機器、機器操作方法およびプログラム
JP2016255254A Active JP6384541B2 (ja) 2012-08-20 2016-12-28 電子機器、機器操作方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016255254A Active JP6384541B2 (ja) 2012-08-20 2016-12-28 電子機器、機器操作方法およびプログラム

Country Status (5)

Country Link
US (1) US10331320B2 (ja)
EP (2) EP2887200B1 (ja)
JP (2) JP6070708B2 (ja)
ES (2) ES2903554T3 (ja)
WO (1) WO2014030290A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160063812A (ko) * 2014-11-27 2016-06-07 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
JP2016162132A (ja) * 2015-02-27 2016-09-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
USD784394S1 (en) * 2015-09-11 2017-04-18 Under Armour, Inc. Display screen with graphical user interface
SG10201507782WA (en) * 2015-09-18 2017-04-27 Paul Michael Whiten User interface for searching a large data set
AT517687B1 (de) * 2015-09-23 2017-04-15 Omicron Electronics Gmbh Prüfvorrichtung und Verfahren zum Steuern einer Prüfvorrichtung
US10863267B2 (en) * 2015-11-10 2020-12-08 Savant Systems, Inc. Volume control for audio/video devices
JP6815886B2 (ja) * 2017-02-14 2021-01-20 キヤノン株式会社 撮像装置、その制御方法、プログラム
JP6808550B2 (ja) * 2017-03-17 2021-01-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
EP3970602A4 (en) * 2019-05-16 2023-02-08 Hoya Corporation ENDOSCOPE PROCESSOR, INFORMATION PROCESSING PROGRAM AND METHOD
JP2023044327A (ja) 2021-09-17 2023-03-30 パナソニックIpマネジメント株式会社 撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
JP2009093102A (ja) * 2007-10-12 2009-04-30 Nikon Corp 電動ステージ制御装置
JP2011232684A (ja) * 2010-04-30 2011-11-17 Canon Inc レンズ装置
JP2011258152A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012090157A (ja) * 2010-10-21 2012-05-10 Canon Inc 表示制御装置、表示制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3387135B2 (ja) 1993-01-21 2003-03-17 ソニー株式会社 ビデオカメラ
JPH07234981A (ja) 1994-02-24 1995-09-05 Mitsubishi Electric Corp プラント操作情報処理装置
JP2001075712A (ja) * 1999-08-31 2001-03-23 Sony Corp 情報処理装置及び情報処理方法並びにプログラム格納媒体
JP2001350579A (ja) 2000-06-07 2001-12-21 Seiko Epson Corp 携帯情報機器
JP2005321896A (ja) * 2004-05-06 2005-11-17 Canon Inc 表示制御方法及び表示制御装置
JP4546202B2 (ja) * 2004-09-28 2010-09-15 キヤノン株式会社 映像受信装置とその制御方法とプログラム及び記憶媒体
JP2006338406A (ja) 2005-06-02 2006-12-14 Sharp Corp 通信端末装置、情報処理装置、通信システム、映像表示システム、通信端末制御方法、情報処理方法、通信端末制御プログラム、情報処理プログラムおよび記録媒体
JP2007065385A (ja) 2005-08-31 2007-03-15 Canon Inc 光学機器
JP4612886B2 (ja) 2005-10-26 2011-01-12 キヤノン株式会社 レンズ装置および撮像システム
JP4652248B2 (ja) 2006-02-22 2011-03-16 富士フイルム株式会社 撮影システム、撮影制御方法、及び撮影装置
US20110027687A1 (en) * 2009-07-31 2011-02-03 Asahi Glass Company, Limited Electrolyte material, liquid composition and membrane/electrode assembly for polymer electrolyte fuel cell
JP5237325B2 (ja) * 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP5464083B2 (ja) * 2010-07-07 2014-04-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2012113110A (ja) 2010-11-24 2012-06-14 Canon Inc 電子機器
US20130014057A1 (en) * 2011-07-07 2013-01-10 Thermal Matrix USA, Inc. Composite control for a graphical user interface
JP5516532B2 (ja) * 2011-08-09 2014-06-11 カシオ計算機株式会社 電子機器、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
JP2009093102A (ja) * 2007-10-12 2009-04-30 Nikon Corp 電動ステージ制御装置
JP2011232684A (ja) * 2010-04-30 2011-11-17 Canon Inc レンズ装置
JP2011258152A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012090157A (ja) * 2010-10-21 2012-05-10 Canon Inc 表示制御装置、表示制御方法

Also Published As

Publication number Publication date
ES2903554T3 (es) 2022-04-04
JP6384541B2 (ja) 2018-09-05
JP6070708B2 (ja) 2017-02-01
JP2017076433A (ja) 2017-04-20
EP2887200A4 (en) 2016-05-11
EP3480684A1 (en) 2019-05-08
ES2702356T3 (es) 2019-02-28
EP2887200B1 (en) 2018-11-28
US10331320B2 (en) 2019-06-25
EP2887200A1 (en) 2015-06-24
WO2014030290A1 (ja) 2014-02-27
US20150227303A1 (en) 2015-08-13
EP3480684B1 (en) 2021-12-15

Similar Documents

Publication Publication Date Title
JP6384541B2 (ja) 電子機器、機器操作方法およびプログラム
US8560976B1 (en) Display device and controlling method thereof
JP6103807B2 (ja) 表示制御装置、その制御方法及びプログラム
US9357134B2 (en) Electronic apparatus, image sensing apparatus, control method and storage medium
JP6437170B1 (ja) タッチスクリーンの作動モードの制御方法及び制御装置
CN109479096B (zh) 电子设备及其控制方法和记录介质
US9979881B2 (en) Imaging control apparatus and method for controlling the same
JP6590666B2 (ja) 電子機器およびその制御方法
CN104111720A (zh) 电子设备控制方法、装置及电子设备
JP2017123515A (ja) 電子機器およびその制御方法
CN103488388A (zh) 显示控制装置及其控制方法
JP6701033B2 (ja) 電子機器およびその制御方法
JP2015114760A (ja) 電子機器
CN110661946B (zh) 电子设备、电子设备的控制方法和计算机可读介质
EP3413183B1 (en) Electronic apparatus and method for controlling the same
JP6112985B2 (ja) 表示制御装置、方法及びプログラム並びに記憶媒体
JP6012351B2 (ja) 画像処理装置、その制御方法及びプログラム
JP2021028785A (ja) 電子機器および電子機器の制御方法
US20230209175A1 (en) Lens system
JP5511023B2 (ja) 映像表示システム及び方法
JP2015012595A (ja) コンテンツ管理装置、コンテンツ閲覧装置及びそれらの制御方法、並びに、プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R151 Written notification of patent or utility model registration

Ref document number: 6070708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250