JP2023133348A - 撮影プログラム、情報処理装置、および方法 - Google Patents

撮影プログラム、情報処理装置、および方法 Download PDF

Info

Publication number
JP2023133348A
JP2023133348A JP2023115096A JP2023115096A JP2023133348A JP 2023133348 A JP2023133348 A JP 2023133348A JP 2023115096 A JP2023115096 A JP 2023115096A JP 2023115096 A JP2023115096 A JP 2023115096A JP 2023133348 A JP2023133348 A JP 2023133348A
Authority
JP
Japan
Prior art keywords
information processing
processing device
camera
user input
button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023115096A
Other languages
English (en)
Inventor
宗樹 岑
Hiroki Mine
有加 神宮司
Yuka Jinguji
翔 小林
Sho Kobayashi
ディキンソン フォレストジュニア マシュー
Dickinson Forrest Matthew Jr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of JP2023133348A publication Critical patent/JP2023133348A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影パラメータをカメラのオート機能に委ねず、ユーザ自らが手動で調整する方が、よりユーザ好みのこだわりのある画像や動画を撮ることができる一方で、このようなマニュアル操作は容易でなく、特に動画撮影の場合、撮影中に、撮影パラメータを調整するような高度な撮影技法もある。【解決手段】プログラムは、情報処理装置に、情報処理装置と通信可能に接続されたカメラの撮影を開始し、カメラの撮影中に、カメラによる撮影のためのパラメータを、予め定められた第1の値に変更し、撮影のためのパラメータを、予め定められた第2の値に変更する処理を実行させる。これにより、撮影パラメータのマニュアル操作を補助し、撮影中のより細かく正確な撮影パラメータ操作、延いては、高度な撮影技法を容易に実現することができる。【選択図】図6

Description

本開示は、撮影プログラム、情報処理装置、および方法に関する。
近年、デジタルカメラ技術の発展により、カメラに関する知識を有さない一般的なユーザであっても、リーズナブルなカメラやスマートフォンなどを用いて綺麗な写真(画像)や映像(動画)を手軽に撮ることができる。例えば、ユーザが行う操作はほぼ撮影ボタンを押すのみで、フォーカスや露光など、撮影のための各種パラメータ(以下、まとめて「撮影パラメータ」という場合がある)はカメラ側で自動的に調整され、撮影を行う。
特開2012-098510号公報
しかしながら、撮影パラメータをカメラのオート機能に委ねず、ユーザ自らが手動で調整する方が、よりユーザ好みのこだわりのある画像や動画を撮ることができる。一方で、このようなマニュアル操作は容易でなく、特に動画撮影の場合、撮影中に、撮影パラメータを調整するような高度な撮影技法もある(例えば、同一カット内でフォーカスを変化させながら撮影するプル・フォーカスまたはフォーカス・プル技法)。そのため、ユーザがマニュアル操作を行なっても思うような撮影が行えないことが多く、まして高度な撮影技法は、熟練者でない限り使いこなせない。なお、このような課題は、フォーカスのマニュアル操作に限ったものでなく、ズーム、F値(絞り)、シャッタースピード、露光(露出)など、カメラ撮影時に調整を行う撮影パラメータをマニュアル操作する場合に同様に生ずる課題である。
そこで、本開示では、撮影パラメータのマニュアル操作を補助することができる撮影プログラム、情報処理装置、および方法を提案する。
本開示によれば、情報処理装置に、第1のユーザ入力に応答して、情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する、プログラムが提供される。
また、本開示によれば、情報処理装置であって、第1のユーザ入力に応答して、情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する制御部を備えた、情報処理装置が提供される。
また、本開示によれば、情報処理装置が、第1のユーザ入力に応答して、情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する処理を実行する、方法が提供される。
本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。 同実施形態に係るカメラアプリケーションの一例を示す図である。 同実施形態に係るカメラアプリケーションのマーカー設定に係る操作の一例を示す図である。 同実施形態に係るカメラアプリケーションのマーカー設定に係る操作の一例を示す図である。 同実施形態に係るカメラアプリケーションのマーカー設定に係る操作の一例を示す図である。 同実施形態に係る撮影中のカメラアプリケーションの一例を示す図である。 同実施形態に係るカメラアプリケーションによる撮影パラメータの操作の一例を示す図である。 同実施形態に係るカメラアプリケーションによる撮影パラメータの操作の一例を示す図である。 同実施形態に係るカメラアプリケーションの変形例を示す図である。 本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、本明細書および図面において、実質的に同一の部位には、同一の符号を付することにより重複する説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.機能構成例
1.2.機能の詳細
2.実施形態の変形例
3.ハードウェア構成例
4.まとめ
<1.実施形態>
<<1.1.機能構成例>>
まず、本実施形態に係る情報処理装置10の機能構成例について説明する。情報処理装置10は、デジタルカメラやデジタルビデオカメラであってもよいし、スマートフォンやタブレットPC(Personal Computer)などのモバイル端末であってもよい。
図1は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図1に示すように、本実施形態に係る情報処理装置10は、操作部110、記憶部120、撮影部130、センサ部140、表示部150、音声入力部160、音声出力部170、制御部180を備える。
(操作部110)
本実施形態に係る操作部110は、カメラアプリケーションなどに対する、ユーザの各種操作を検知する。上記の操作には、例えば、タッチ操作や、情報処理装置10に備えられた物理ボタンの操作などが含まれる。ここでタッチ操作とは、表示部150に対する種々の接触動作、例えば、タップ、ダブルタップ、スワイプ、ピンチなどをいう。また、タッチ操作には、表示部150に対し、例えば指などの物体を近づける動作を含む。このために、操作部110は、例えば、タッチパネル、ボタン、キーボード、マウス、近接センサなどを備える。操作部110は、表示部150に表示された、カメラアプリケーションのユーザインタフェース(UI)に対するユーザ操作を検知し、検知したユーザの操作に係る情報を制御部180に入力する。ここで、ユーザの操作に係る情報とは、例えば、ユーザのタッチ操作の種類と操作が行われた位置情報(画面座標)、入力された撮影パラメータ(第1の値、第2の値、第3の値の一例)などである。
(記憶部120)
本実施形態に係る記憶部120は、各種プログラムやデータを一時的または恒常的に記憶するための記憶領域である。例えば、記憶部120には、情報処理装置10が各種機能を実行するためのプログラムやデータが記憶されてもよい。具体的な一例として、記憶部120には、カメラアプリケーションを実行するためのプログラムや、各種設定などを管理するための管理データなどが記憶されてよい。また、カメラアプリケーションのUIを介して、ユーザによって入力された撮影パラメータなども記憶されてよい。もちろん、上記はあくまで一例であり、記憶部120に記憶されるデータの種別は特に限定されない。
(撮影部130)
本実施形態に係る撮影部130は、制御部180による制御に基づいて動画の撮影を行う。情報処理装置10の一例であるスマートフォンは、表示部150の背面側に、被写体を撮影するためのメインカメラを備え、表示部150側に、ユーザの顔などを撮影するためのフロントカメラを備える。また、撮影部130は、撮像素子、フォーカスリングやズームレンズなどを備える。本実施形態では、一例としてメインカメラでの撮影を制御する。撮影部130によって撮影された動画は、記憶部120に記憶される。なお、撮影部130によって撮影される動画は、音声入力部160によって撮影中に収集される音声や環境音と共に記憶される。また、撮影部130によって撮影され、記憶部120に記憶される動画には、撮影中に撮影される動画と、撮影中以外の時に、表示部150などにプレビュー表示するための動画とがある。前者の動画は、表示部150に表示されるとともにRAM(Random Access Memory)に一時的に記憶された後、ROM(Read Only Memory)に記憶される。後者の動画もRAMに一時的に記憶されるが、RAMの容量がいっぱいになったら古いものから削除されていき、ROMには記憶されない。
(センサ部140)
本実施形態に係るセンサ部140は、ユーザの行動に係るセンサ情報を、各種センサを用いて収集する機能を有する。センサ部140は、例えば加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、GNSS(Global Navigation Satellite System)信号受信装置などを備える。センサ部140は、例えば、ユーザが情報処理装置10を横向きに構えたことをジャイロセンサによって検知し、検知した情報を制御部180に入力する。
(表示部150)
本実施形態に係る表示部150は、制御部180による制御に基づいて各種の視覚情報を表示する。表示部150は、例えば、アプリケーションに係る画像や文字などを表示してよい。具体的には、例えば、カメラアプリケーションのユーザインタフェースや、撮影部130によって撮影される被写体などである。このために、表示部150は、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)ディスプレイ装置など、各種のディスプレイ装置を備える。
(音声入力部160)
本実施形態に係る音声入力部160は、制御部180による制御に基づいて、情報処理装置10の周囲の音声や環境音などを収集する。このために、音声入力部160は、マイクロフォンなどを備える。
(音声出力部170)
本実施形態に係る音声出力部170は、各種の音や音声を出力する。音声出力部170は、例えば、制御部180による制御に基づいてカメラアプリケーションの状況に応じた音や音声を出力する(例えば、撮影開始や終了の際に音を鳴らす)。このために、音声出力部170は、スピーカやアンプを備える。
(制御部180)
本実施形態に係る制御部180は、情報処理装置10が備える各構成を制御する。また制御部180は、カメラ撮影を制御することを特徴の一つとする。撮影の制御には、UIを介したユーザ入力に基づいて、撮影パラメータの調整を行うことや、撮影パラメータに基づいて、撮影部130が備えるフォーカスリングなどを操作することを含む。制御部180が有する機能の詳細については後述される。
以上、本実施形態に係る情報処理装置10の機能構成例について説明した。なお、図1を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理装置10の機能構成は係る例に限定されない。例えば、情報処理装置10は、必ずしも図1に示す構成のすべてを備えなくてもよいし、音声入力部160などの各構成を情報処理装置10とは異なる別の装置に備えることも可能である。本実施形態に係る情報処理装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
また、各構成要素の機能を、CPU(Central Proccessing Unit)などの演算装置がこれらの機能を実現する処理手順を記述した制御プログラムを記憶したROMやRAMなどの記憶媒体から制御プログラムを読み出し、そのプログラムを解釈して実行することにより行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜利用する構成を変更することが可能である。また情報処理装置10のハードウェア構成の一例については後述される。
<<1.2.機能の詳細>>
次に、本実施形態に係る情報処理装置10が有する機能について詳細に説明する。本実施形態に係る情報処理装置10の制御部180は、カメラアプリケーションを用いて、撮影パラメータのマニュアル操作を補助することを特徴の一つとする。カメラアプリケーションは、情報処理装置10に予めインストールされて使用される。カメラアプリケーションは、撮影時などにユーザによって起動されてもよいし、情報処理装置10のOSの起動時に自動起動されてもよい。また、カメラアプリケーションは、別のカメラアプリケーションなどの拡張プログラムのような形で起動および使用されてもよい。
図2は、本実施形態に係るカメラアプリケーションのメニュー表示に係る操作の一例を示す図である。図2は、情報処理装置10がスマートフォンであり、ユーザがスマートフォンを横向きにして、カメラアプリケーションのUI200を用いて動画撮影を行う場合の一例である。なお、図2の例では、カメラアプリケーションのUI200を、表示部150に対して全画面および横画面で表示しているが、このような表示形態に限られない。例えば、ユーザが情報処理装置10を縦向きにしたことにより、センサ部140がそれを検知し、制御部180によって表示部150におけるカメラアプリケーションのUI200を縦画面で表示させることもできる。また、例えば、カメラアプリケーションが別のカメラアプリケーションなどの拡張プログラムとして機能する場合、カメラアプリケーションのUI200を別のカメラアプリケーションなどのUIに対して重畳表示させることもできる。
カメラアプリケーションのUI200は、被写体表示部210、スライダー220、スライダーボタン221、Aマーカー222、Bマーカー223、Aボタン240、Bボタン241、アップボタン250、ダウンボタン251、設定変更ボタン261、キャンセルボタン262、セットボタン263、撮影時間表示部270、各種情報表示部280、撮影ボタン290などを含むことができる。
被写体表示部210は、撮影部130によって取り込まれ、デジタルデータ化された被写体を表示する。なお、被写体表示部210に被写体が表示されても、撮影ボタン290が押下されるなど、ユーザによる撮影意思が確認されるまで撮影されない。また、表示される被写体は、撮影パラメータに基づいてフォーカスなどが調整された上で取り込まれたものである。また、ユーザは、被写体表示部210をタップ操作することで、タップした位置にフォーカスを合わせる、オートフォーカス機能を利用することができる。
スライダー220およびスライダーボタン221は、ユーザが撮影パラメータを操作するための入力部である。例えば、ユーザは、スライダー220に沿ってスライダーボタン221をドラッグ・アンド・ドロップ操作することにより、撮影パラメータを変更することができる。ユーザの操作によってスライダーボタン221の位置が変更されると、操作部110がそれを検知して、制御部180は撮影パラメータを変更する。制御部180は、変更された撮影パラメータに基づいて、撮影部130を介して被写体を取り込み、被写体表示部210に表示するように制御する。
なお、図2の例では、スライダー220およびスライダーボタン221は、フォーカスを変更するための入力部として示されている。そのため、スライダーボタン221を上方向(∞方向)にスライドしていくと、遠くの被写体にフォーカスが合い、下方向(Near方向)にスライドしていくと、近くの被写体にフォーカスが合うように制御される。なお、スライダー220における「∞」および「Near」の表示は、撮影パラメータがフォーカス以外の場合、撮影パラメータごとに表示内容や表示数を変えることができる。フォーカス以外の撮影パラメータとは、例えば、ズーム、F値(絞り)、シャッタースピード、露光(露出)などであるが、これらに限られない。例えば、変更する撮影パラメータがF値の場合は、「1」、「1.4」、「2」、「2.8」、「4」、「5.6」、「8」、「11」、「16」などと細かく表示することもできる。このように、スライダー220およびスライダーボタン221は、撮影パラメータの相対値を入力するためのものである。
Aマーカー222、Bマーカー223、Aボタン240、Bボタン241は、詳細を後述するが、撮影パラメータのマニュアル操作を補助するための入力部である。Aマーカー222、Bマーカー223も、スライダーボタン221と同じように、スライダー220に沿ってスライドさせることができるが、スライダーボタン221とは異なり、撮影パラメータは変更されない。Aマーカー222およびBマーカー223はあくまでも補助的な役割を担い、Aボタン240またはBボタン241押下によって、スライダーボタン221が、Aマーカー222またはBマーカー223に移動する。これによって、スライダーボタン221が移動することになるため、結果的に撮影パラメータが変更されることになる(被写体表示部210に表示される被写体にも、変更された撮影パラメータが反映される)。
なお、Aマーカー222、Bマーカー223、Aボタン240、Bボタン241における「A」および「B」は順番の概念を持たず、数字や記号など、両者の区別がつけば何でもよい。また、Aボタン240およびBボタン241押下による入力は、第1のユーザ入力および第2のユーザ入力の一例である。この場合も、Aボタン240およびBボタン241には順番の概念がないため、例えば、Aボタン240押下による入力が、第1のユーザ入力にも第2のユーザ入力にもなり得る(Bボタン241押下による入力も同様)。
アップボタン250、ダウンボタン251は、スライダーボタン221を微調整するためのボタンである。例えば、ユーザがアップボタン250を押下している間、スライダーボタン221がスライダー220に沿って上方向に移動する。または、ユーザがアップボタン250を押下すると、一定量、スライダーボタン221をスライダー220に沿って上方向に移動させるなどであってもよい。ユーザがダウンボタン251を押下した場合、スライダーボタン221はスライダー220に沿って下方向に移動する。アップボタン250またはダウンボタン251によるスライダーボタン221の移動量は、ユーザによって自由に変更できるようにしてもよい。
設定変更ボタン261は、各種設定を変更するためのボタンである。例えば、ユーザが設定変更ボタン261を押下すると設定変更画面(図示せず)などを表示し、Aボタン240またはBボタン241押下の際のスライダーボタン221の各マーカーへの到達時間(例えば、0.1~3.0秒の間。第1のユーザ入力または第2のユーザ入力に応答してから第1の値または第2の値に変更されるまでの時間の一例)や、アップボタン250またはダウンボタン251によるスライダーボタン221の移動量などを変更することができる。
キャンセルボタン262は、各入力値を破棄するためのボタンである。例えば、ユーザはキャンセルボタン262を押下することにより、移動させたAマーカー222やBマーカー223、スライダーボタン221の位置を初期状態に戻すことができる。ここで初期状態とは、例えば、カメラアプリケーションの起動時や、セットボタン263押下時である。または、単に、キャンセルボタン262押下で、各入力値を記憶などせず、カメラアプリケーションを終了したり、カメラアプリケーションのUI200から別の画面に遷移したりするなどであってもよい。
セットボタン263は、各入力値を記憶するためのボタンである。例えば、ユーザはセットボタン263を押下することにより、移動させたAマーカー222やBマーカー223、スライダーボタン221の位置が制御部180によって記憶部120に記憶される。記憶された各入力値は、次回のカメラアプリケーションの起動時や、カメラアプリケーションのUI200の表示時に自動的にカメラアプリケーションのUI200に初期設定させることもできる。なお、セットボタン263押下による各入力値は、複数パターン記憶させることもでき、ユーザがカメラアプリケーションのUI200を介して、自由に好きなパターンを呼び出し、利用することができる。これにより、ユーザは、都度、Aマーカー222やBマーカー223、スライダーボタン221の位置を入力する必要がなくなる。
撮影時間表示部270は、撮影開始からの経過時間を表示するための表示部である。撮影時間表示部270は、図2に示すように、例えば、時分秒に加え、100分の1秒まで表示させることができるが、これに限定されない。
各種情報表示部280は、撮影時に必要な各種情報を表示する表示部である。各種情報とは、例えば、ハイダイナミックレンジ(HDR)機能のOn/Offや、情報処理装置10のバッテリー残量などであるが、これらに限定されない。
撮影ボタン290は、動画撮影を開始、または停止するためのボタンである。例えば、ユーザは、撮影ボタン290を押下することにより、被写体表示部210に表示された被写体を動画撮影することができる。
図2における、カメラアプリケーションのUI200の表示内容は一例であり、これに限定されない。カメラアプリケーションの各種機能を利用するためのボタンや表示などを増減させたり、それらの配置を変更させたりすることができる。また、カメラアプリケーションのUI200の各種表示の内容、形状や色、大きさ、透過率なども一例である。
図3は、本実施形態に係るカメラアプリケーションのマーカー設定に係る操作の一例を示す図である。図3では、Aマーカー222またはBマーカー223を直接操作して設定する方法を、Aマーカー222の場合を例として示している。そのため、Bマーカー223についても同様の操作を行うことで、Bマーカー223を設定することができる。なお、図3は、便宜上、図2における、カメラアプリケーションのUI200の右部分のみを示している(図4、7、8も同様である)。
図3左側は、Aマーカー222を設定するため、ユーザがAマーカー222に対し、タッチ操作を行おうとしている状態を示している。続いて、図3右側は、ユーザがAマーカー222をドラッグ・アンド・ドロップ操作により設定した状態を示している。なお、Aマーカー222を移動させただけでは、撮影パラメータ(本実施形態ではフォーカス)は変更されず、被写体表示部210に表示される被写体にも変化は起きない。そのため、移動後のAマーカー222の位置に対応した撮影パラメータにより、撮影した際の被写体がどの程度変化するかを見たい場合は、ユーザがタッチ操作によりAマーカー222の位置にスライダーボタン221を移動させるか、Aボタン240を押下する必要がある。このような操作により、撮影パラメータが変更され、変更された撮影パラメータが反映された被写体が、被写体表示部210に表示される。
図4は、本実施形態に係るカメラアプリケーションのマーカー設定に係る操作の一例を示す図である。図4では、スライダーボタン221を操作して撮影パラメータを合わせた上で、Aマーカー222またはBマーカー223を操作して設定する方法を、Aマーカー222の場合を例として示している(Bマーカー223についても同様の操作で設定可能である)。
図4左側は、スライダーボタン221を移動するため、ユーザがスライダーボタン221に対し、タッチ操作を行おうとしている状態を示している。続いて、図4中側は、スライダーボタン221をドラッグ・アンド・ドロップ操作により移動させた状態を示している。なお、スライダーボタン221を移動することにより、撮影パラメータが変更されるため、被写体表示部210に表示される被写体にも変更された撮影パラメータが反映される。これにより、ユーザは、撮影パラメータの変化量を視覚的に確認することができ、より細かいマーカー操作を行うことができる。なお、スライダーボタン221の操作は、アップボタン250およびダウンボタン251によって行うこともできる。情報処理装置10がスマートフォンなどの場合は、表示部150が小さい可能性があり、スライダーボタン221の細かい操作が困難な場合もある。この場合は特に、アップボタン250およびダウンボタン251を用いることによって、ユーザは、スライダーボタン221の細かい操作を行うことができる。
続いて、図4右側は、ユーザがAマーカー222をドラッグ・アンド・ドロップ操作により、スライダーボタン221の位置に設定した状態を示している。なお、Aマーカー222をスライダーボタン221付近に移動させた際、Aマーカー222をスライダーボタン221の位置に吸着するように移動して(スナップ)設定させることもできる。これにより、ユーザは、Aマーカー222の正確な操作を行ない易くなる。
図5は、本実施形態に係るカメラアプリケーションのマーカー設定に係る操作の一例を示す図である。図5では、カメラアプリケーションのオートフォーカス機能により撮影パラメータ(フォーカス)を合わせた上で、Aマーカー222またはBマーカー223を操作して設定する方法を、Bマーカー223の場合を例として示している(Aマーカー222についても同様の操作で設定可能)。
図5上段は、オートフォーカス機能によりフォーカスを合わせるため、ユーザが、被写体表示部210に表示される被写体をタップしている状態を示している。被写体表示部210に表示される被写体に対するタップ操作(第6のユーザ入力の一例)により、操作部110がタップ操作と、タップされた位置を検知する。そして、操作部110は、タップされた位置情報などを制御部180に入力し、制御部180は、タップされた位置にフォーカスが合うように撮影部130が備えるフォーカスリングを操作する。
これにより、図5中段に示すように、被写体表示部210には、タップされた位置にフォーカスが合った被写体が表示される。また、図5中段に示すように、制御部180は、合わせたフォーカスに対応する位置にスライダーボタン221を移動させる。続いて、図5下段は、ユーザがBマーカー223をドラッグ・アンド・ドロップ操作により、スライダーボタン221の位置に設定した状態を示している。このようにして、ユーザは、Bマーカー223の正確な操作を行うことができる。
以上、図3~5に示すような操作で、Aマーカー222およびBマーカー223を所定の位置に設定し、セットボタン263を押下することで、Aマーカー222およびBマーカー223の位置(厳密には、各位置に対応する撮影パラメータ)が、制御部180によって記憶部120に記憶される。また、スライダーボタン221の位置(第7のユーザ入力の一例)も併せて記憶し、撮影開始時の撮影パラメータの初期値として用いることができる。
図6は、本実施形態に係る撮影中のカメラアプリケーションの一例を示す図である。ユーザが撮影ボタン290を押下すると、被写体表示部210に表示された被写体に対し撮影部130による撮影が開始される。撮影が開始されると、図6に示すように、撮影時間表示部270の時間が進み出す。また、撮影中の誤操作防止のため、図6に示すように、Aマーカー222やBマーカー223が表示されず、代わりにそれぞれが設定された位置を示す「A」および「B」が表示される。また、スライダー220が右端に寄り、被写体表示部210の表示が大きくなる。さらに、撮影中に不要な、設定変更ボタン261、キャンセルボタン262、セットボタン263も非表示状態にすることができる。すなわち、撮影中は、撮影中以外の時よりも、被写体表示部210が大きく表示され、それ以外の各種設定用のUIの領域が小さく表示されるように制御される。また、スライダーボタン221は直接、ドラッグ・アンド・ドロップ操作できないようにすることができる。すなわち、スライダーボタン221を移動させ、撮影パラメータを変更するには、Aボタン240、Bボタン241、アップボタン250、ダウンボタン251を用いる必要がある。
図7は、本実施形態に係るカメラアプリケーションによる撮影パラメータの操作の一例を示す図である。図7では、撮影中、または各マーカー設定中に、Aボタン240またはBボタン241により撮影パラメータを操作する方法を、Aボタン240を例として示している。そのため、Bボタン241についても同様の操作を行うことで、撮影パラメータを操作することができる。
図7左側は、撮影パラメータを操作するため、ユーザがAボタン240を押下している状態を示している。続いて、図7中側は、ユーザがAボタン240を押下したことに応答して、スライダーボタン221がAマーカー222に向かって移動している状態を示している。なお、図7の例では、スライダーボタン221の初期値が、スライダー220の中央付近であるが、ユーザによって自由に変更できる。
また、上述したように、ユーザは、Aボタン240の移動速度を任意に変更可能である。例えば、スライダーボタン221の移動速度は、スライダーボタン221の移動開始位置から、Aマーカー222またはBマーカー223までの到達時間(例えば、0.1~3.0秒の間)として設定可能である。例えば、到達時間を1.5秒と設定した場合、ユーザがAボタン240を押下すると、スライダーボタン221が移動を開始し、1.5秒でAマーカー222に到達する速度で移動する。すなわち、Aマーカー222までの距離に関係なく到達時間が設定されるため、スライダーボタン221は、Aマーカー222までの距離が長い場合、速く移動し、Aマーカー222までの距離が短い場合、遅く移動することになる。これは、動画撮影におけるフレームレート(1秒間あたりのフレーム数)を気にする場合、秒単位での撮影が非常に重要になってくるためである。なお、Aマーカー222またはBマーカー223までの到達時間は、別々に設定することもできるし、一律で設定することもできる。
図7右側は、スライダーボタン221がAマーカー222の位置に到達した状態を示している。なお、Aボタン240またはBボタン241押下によるスライダーボタン221の移動に合わせて、撮影パラメータが変化するよう制御部180によって制御される。そして、制御部180は、撮影パラメータの変化に合わせてフォーカスリングなどを操作する。これにより、被写体表示部210に表示される被写体は徐々に撮影パラメータが反映されていくように変化する(例えば、被写体のある位置に徐々にフォーカスが合っていく)。また、例えば、Aボタン240を押下した後に、Bボタン241を押下することで、高度な撮影技法である、プル・フォーカス技法も容易に行うことができる。
また、Aボタン240押下に応答して、スライダーボタン221がAマーカー222に移動している間にBボタン241が押下された場合、誤操作防止のため、スライダーボタン221がAマーカー222の位置に到達するまでBボタン241の操作を無効にすることができる。または、スライダーボタン221がAマーカー222へ移動中であっても、Bボタン241押下に応答して、スライダーボタン221をBマーカー223に移動するように制御してもよい。
図8は、本実施形態に係るカメラアプリケーションによる撮影パラメータの操作の一例を示す図である。図8では、撮影中、または各マーカー設定中に、アップボタン250またはダウンボタン251により撮影パラメータを操作する方法を、アップボタン250を例として示している。そのため、ダウンボタン251についても同様の操作を行うことで、撮影パラメータを操作することができる。
図8左側は、撮影パラメータを操作するため、ユーザがアップボタン250を押下している状態を示している。続いて、図8右側は、ユーザがアップボタン250を押下したことに応答して、スライダーボタン221がスライダー220に沿って上方向に向かって移動している状態を示している。
なお、上述したように、アップボタン250またはダウンボタン251によるスライダーボタン221の移動量は、任意に変更可能である。また、アップボタン250またはダウンボタン251によるスライダーボタン221の移動に合わせて、撮影パラメータが変化するよう制御部180によって制御される。これにより、被写体表示部210に表示される被写体は徐々に撮影パラメータが反映されていくように変化し、ユーザは、より細かい撮影パラメータの操作を行うことができる。
<2.実施形態の変形例>
図9は、本実施形態に係るカメラアプリケーションの変形例を示す図である。図9の変形例では、より細かい撮影パラメータの操作を行うため、撮影パラメータの操作のためのマーカーおよびボタンが各2つから4つに増えている。より具体的には、Aマーカー222およびBマーカー223に加えて、Cマーカー312およびDマーカー313が増えている。また、Cマーカー312およびDマーカー313に対応する、Cボタン310およびDボタン311も増えている。CおよびD各々のマーカーおよびボタンの使い方は、上述したAおよびBのものと同様である。また、例えば、ユーザは、撮影中に、Aボタン240、Cボタン310、Dボタン311、Bボタン241と順番に押下していくことにより、撮影パラメータをより細かく変化させながら撮影することができる。なお、マーカーおよびボタンの数は各4つに限定されず、それより多くても少なくてもよい。
<3.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図10は、本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。図10を参照すると、情報処理装置10は、例えば、プロセッサ411と、ROM412と、RAM413と、ホストバス414と、ブリッジ415と、外部バス416と、インターフェース417と、入力装置418と、出力装置419と、ストレージ420と、ドライブ421と、接続ポート422と、通信装置423と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(プロセッサ411)
プロセッサ411は、例えば、演算処理装置または制御装置として機能し、ROM412、RAM413、ストレージ420、またはリムーバブル記録媒体20に記録された各種プログラムに基づいて各構成要素の動作全般またはその一部を制御する。
(ROM412、RAM413)
ROM412は、プロセッサ411に読み込まれるプログラムや演算に用いるデータなどを格納する手段である。RAM413には、例えば、プロセッサ411に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータなどが一時的または永続的に格納される。
(ホストバス414、ブリッジ415、外部バス416、インターフェース417)
プロセッサ411、ROM412、RAM413は、例えば、高速なデータ伝送が可能なホストバス414を介して相互に接続される。一方、ホストバス414は、例えば、ブリッジ415を介して比較的データ伝送速度が低速な外部バス416に接続される。また、外部バス416は、インターフェース417を介して種々の構成要素と接続される。
(入力装置418)
入力装置418には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、およびレバーなどが用いられる。さらに、入力装置418としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置418には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置419)
出力装置419は、例えば、CRT(Cathode Ray Tube)、LCD、または有機ELなどのディスプレイ装置、スピーカ、ヘッドホンなどのオーディオ出力装置、プリンタ、携帯電話、またはファクシミリなど、取得した情報を利用者に対して視覚的または聴覚的に通知することが可能な装置である。また、本開示に係る出力装置419は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ420)
ストレージ420は、各種のデータを格納するための装置である。ストレージ420としては、例えば、ハードディスクドライブ(HDD)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどが用いられる。
(ドライブ421)
ドライブ421は、例えば、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体20に記録された情報を読み出し、またはリムーバブル記録媒体20に情報を書き込む装置である。
(リムーバブル記録媒体20)
リムーバブル記録媒体20は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディアなどである。もちろん、リムーバブル記録媒体20は、例えば、非接触型ICチップを搭載したICカード、または電子機器などであってもよい。
(接続ポート422)
接続ポート422は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、または光オーディオ端子などのような外部接続機器30を接続するためのポートである。
(外部接続機器30)
外部接続機器30は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、またはICレコーダなどである。
(通信装置423)
通信装置423は、ネットワークに接続するための通信デバイスであり、例えば、有線または無線LAN、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または各種通信用のモデムなどである。
<4.まとめ>
以上説明したように、プログラムは、情報処理装置(10)に、前記情報処理装置と通信可能に接続されたカメラ(撮影部130)の撮影を開始し、前記カメラの撮影中に、前記カメラによる撮影のためのパラメータを、予め定められた第1の値に変更し、前記パラメータを、予め定められた第2の値に変更する処理を実行させる。
これにより、撮影パラメータのマニュアル操作を補助し、撮影中のより細かく正確な撮影パラメータ操作、延いては、高度な撮影技法を容易に実現することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)情報処理装置に、
第1のユーザ入力に応答して、前記情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する
処理を実行させる、プログラム。
(2)前記情報処理装置に、
第2のユーザ入力に応答して、前記パラメータを、予め定められた第2の値に変更する処理をさら実行させる、前記(1)に記載のプログラム。
(3)前記情報処理装置に、
第3のユーザ入力に基づいて、前記第1の値を記憶し、
第4のユーザ入力に基づいて、前記第2の値を記憶する
処理をさらに実行させる、前記(2)に記載のプログラム。
(4)前記第1のユーザ入力および前記第2のユーザ入力は、前記カメラによる撮影中の入力であり、前記第3のユーザ入力および前記第4のユーザ入力は、前記カメラによる撮影中以外の時の入力である、前記(3)に記載のプログラム。
(5)前記第1のユーザ入力に応答してから前記第1の値に変更されるまでの時間、および前記第2のユーザ入力に応答してから前記第2の値に変更されるまでの時間は、第5のユーザ入力に基づいて予め定められる、前記(2)~(4)のいずれか1つに記載のプログラム。
(6)前記パラメータは、前記カメラのフォーカス、ズーム、F値、または露光に関するパラメータである、前記(1)~(5)のいずれか1つに記載のプログラム。
(7)前記パラメータは、前記カメラのフォーカスに関するパラメータであり、
前記情報処理装置に、
前記情報処理装置と通信可能に接続されたディスプレイに、前記カメラの被写体を表示し、
前記ディスプレイに表示された前記被写体における所定位置を示す第6のユーザ入力に基づいて、オートフォーカスによって前記所定位置にフォーカスを合わせ、
前記所定位置にフォーカスを合わせた際の前記パラメータの第3の値に基づいた表示を前記ディスプレイに表示する
処理をさらに実行させる、前記(1)~(5)のいずれか1つに記載のプログラム。
(8)前記情報処理装置に、
前記情報処理装置と通信可能に接続されたディスプレイに、前記パラメータを入力するためのユーザインタフェースを表示する
処理をさらに実行させ、前記パラメータの調整に関するユーザ入力は、前記ユーザインタフェースを介して入力される、前記(1)~(6)のいずれか1つに記載のプログラム。
(9)前記ディスプレイは、前記カメラにより取り込まれ、デジタルデータ化された被写体を表示する被写体表示部を含み、前記カメラによる撮影中は、撮影中以外の時よりも、前記被写体表示部が大きく表示され、前記ユーザインタフェースの領域が小さく表示される、前記(1)~(8)のいずれか1つに記載のプログラム。
(10)前記カメラの撮影開始時の前記パラメータの初期値は、第7のユーザ入力に基づいて、予め定められる、前記(1)~(9)のいずれか1つに記載のプログラム。
(11)前記情報処理装置に、
前記パラメータを、予め定められた第3の値に変更する処理をさらに実行させる、前記(1)~(10)のいずれか1つに記載のプログラム。
(12)情報処理装置であって、
第1のユーザ入力に応答して、前記情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する制御部
を備えた、情報処理装置。
(13)情報処理装置が、
第1のユーザ入力に応答して、前記情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する
処理を実行する、方法。
10 情報処理装置
110 操作部
120 記憶部
130 撮影部
140 センサ部
150 表示部
160 音声入力部
170 音声出力部
180 制御部
本開示によれば、情報処理装置に、録画を開始するユーザ操作に応じて、ユーザ操作前よりも撮像画像を大きく表示する、プログラムが提供される。
また、本開示によれば、情報処理装置であって、録画を開始するユーザ操作に応じて、ユーザ操作前よりも撮像画像を大きく表示する制御部を備える、情報処理装置が提供される。
また、本開示によれば、情報処理装置が、録画を開始するユーザ操作に応じて、ユーザ操作前よりも撮像画像を大きく表示する、方法が提供される。
なお、本技術は以下のような構成も取ることができる。
(1)情報処理装置に、
録画を開始するユーザ操作に応じて、前記ユーザ操作前よりも撮像画像を大きく表示する
処理を実行させる、プログラム。
(2)前記情報処理装置に
1のユーザ入力に応答して、カメラによる撮影のためのパラメータを、予め定められた第1の値に変更する
処理をさらに実行させる、前記(1)に記載のプログラム。
)前記情報処理装置に、
第2のユーザ入力に応答して、前記パラメータを、予め定められた第2の値に変更する
処理をさらに実行させる、前記()に記載のプログラム。
)前記情報処理装置に、
第3のユーザ入力に基づいて、前記第1の値を記憶し、
第4のユーザ入力に基づいて、前記第2の値を記憶する
処理をさらに実行させる、前記()に記載のプログラム。
)前記第1のユーザ入力および前記第2のユーザ入力は、前記カメラによる録画中の入力であり、前記第3のユーザ入力および前記第4のユーザ入力は、前記カメラによる録画中以外の時の入力である、前記()に記載のプログラム。
)前記第1のユーザ入力に応答してから前記第1の値に変更されるまでの時間、および前記第2のユーザ入力に応答してから前記第2の値に変更されるまでの時間は、第5のユーザ入力に基づいて予め定められる、前記()に記載のプログラム。
)前記パラメータは、前記カメラのフォーカス、ズーム、F値、または露光に関するパラメータである、前記(2)または(3)に記載のプログラム。
)前記パラメータは、前記カメラのフォーカスに関するパラメータであり、
前記情報処理装置に、
前記情報処理装置と通信可能に接続されたディスプレイに、前記カメラの被写体を表示し、
前記ディスプレイに表示された前記被写体における所定位置を示す第6のユーザ入力に基づいて、オートフォーカスによって前記所定位置にフォーカスを合わせ、
前記所定位置にフォーカスを合わせた際の前記パラメータの第3の値に基づいた表示を前記ディスプレイに表示する
処理をさらに実行させる、前記(2)または(3)に記載のプログラム。
前記情報処理装置に、
前記情報処理装置と通信可能に接続されたディスプレイに、前記パラメータを入力するためのユーザインタフェースを表示する
処理をさらに実行させ、前記パラメータの調整に関するユーザ入力は、前記パラメータを入力するためのユーザインタフェースを介して入力される、前記(2)または(3)に記載のプログラム。
(10)前記ディスプレイは、前記カメラにより取り込まれ、デジタルデータ化された被写体を表示する被写体表示部を表示し、前記カメラによる録画中は、録画中以外の時よりも、前記被写体表示部が大きく表示され、前記ユーザインタフェースの領域が小さく表示される、前記(9)に記載のプログラム。
(11)前記カメラの撮影開始時の前記パラメータの初期値は、第7のユーザ入力に基づいて、予め定められる、前記(2)または(3)に記載のプログラム。
(12)前記情報処理装置に、
前記パラメータを、予め定められた第3の値に変更する処理をさらに実行させる、前記(2)または(3)に記載のプログラム。
(13)情報処理装置であって、
録画を開始するユーザ操作に応じて、前記ユーザ操作前よりも撮像画像を大きく表示する制御部
を備える、情報処理装置。
(14)情報処理装置が、
録画を開始するユーザ操作に応じて、前記ユーザ操作前よりも撮像画像を大きく表示する
処理を実行する、方法。

Claims (13)

  1. 情報処理装置に、
    第1のユーザ入力に応答して、前記情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する
    処理を実行させる、プログラム。
  2. 前記情報処理装置に、
    第2のユーザ入力に応答して、前記パラメータを、予め定められた第2の値に変更する
    処理をさらに実行させる、請求項1に記載のプログラム。
  3. 前記情報処理装置に、
    第3のユーザ入力に基づいて、前記第1の値を記憶し、
    第4のユーザ入力に基づいて、前記第2の値を記憶する
    処理をさらに実行させる、請求項2に記載のプログラム。
  4. 前記第1のユーザ入力および前記第2のユーザ入力は、前記カメラによる撮影中の入力であり、前記第3のユーザ入力および前記第4のユーザ入力は、前記カメラによる撮影中以外の時の入力である、請求項3に記載のプログラム。
  5. 前記第1のユーザ入力に応答してから前記第1の値に変更されるまでの時間、および前記第2のユーザ入力に応答してから前記第2の値に変更されるまでの時間は、第5のユーザ入力に基づいて予め定められる、請求項2に記載のプログラム。
  6. 前記パラメータは、前記カメラのフォーカス、ズーム、F値、または露光に関するパラメータである、請求項1に記載のプログラム。
  7. 前記パラメータは、前記カメラのフォーカスに関するパラメータであり、
    前記情報処理装置に、
    前記情報処理装置と通信可能に接続されたディスプレイに、前記カメラの被写体を表示し、
    前記ディスプレイに表示された前記被写体における所定位置を示す第6のユーザ入力に基づいて、オートフォーカスによって前記所定位置にフォーカスを合わせ、
    前記所定位置にフォーカスを合わせた際の前記パラメータの第3の値に基づいた表示を前記ディスプレイに表示する
    処理をさらに実行させる、請求項1に記載のプログラム。
  8. 前記情報処理装置に、
    前記情報処理装置と通信可能に接続されたディスプレイに、前記パラメータを入力するためのユーザインタフェースを表示する
    処理をさらに実行させ、前記パラメータの調整に関するユーザ入力は、前記ユーザインタフェースを介して入力される、請求項1に記載のプログラム。
  9. 前記ディスプレイは、前記カメラにより取り込まれ、デジタルデータ化された被写体を表示する被写体表示部を含み、前記カメラによる撮影中は、撮影中以外の時よりも、前記被写体表示部が大きく表示され、前記ユーザインタフェースの領域が小さく表示される、請求項8に記載のプログラム。
  10. 前記カメラの撮影開始時の前記パラメータの初期値は、第7のユーザ入力に基づいて、予め定められる、請求項1に記載のプログラム。
  11. 前記情報処理装置に、
    前記パラメータを、予め定められた第3の値に変更する処理をさらに実行させる、請求項1に記載のプログラム。
  12. 情報処理装置であって、
    第1のユーザ入力に応答して、前記情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する制御部
    を備えた、情報処理装置。
  13. 情報処理装置が、
    第1のユーザ入力に応答して、前記情報処理装置と接続されたカメラによる撮影のためのパラメータを、予め定められた第1の値に変更する
    処理を実行する、方法。
JP2023115096A 2019-09-05 2023-07-13 撮影プログラム、情報処理装置、および方法 Pending JP2023133348A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPPCT/JP2019/035094 2019-09-05
JP2019035094 2019-09-05
PCT/JP2019/039016 WO2021044638A1 (ja) 2019-09-05 2019-10-02 撮影プログラム、情報処理装置、および方法
JP2021543934A JP7315010B2 (ja) 2019-09-05 2019-10-02 撮影プログラム、情報処理装置、および方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021543934A Division JP7315010B2 (ja) 2019-09-05 2019-10-02 撮影プログラム、情報処理装置、および方法

Publications (1)

Publication Number Publication Date
JP2023133348A true JP2023133348A (ja) 2023-09-22

Family

ID=74853107

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021543934A Active JP7315010B2 (ja) 2019-09-05 2019-10-02 撮影プログラム、情報処理装置、および方法
JP2023115096A Pending JP2023133348A (ja) 2019-09-05 2023-07-13 撮影プログラム、情報処理装置、および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021543934A Active JP7315010B2 (ja) 2019-09-05 2019-10-02 撮影プログラム、情報処理装置、および方法

Country Status (4)

Country Link
US (1) US11889179B2 (ja)
EP (1) EP4027632A4 (ja)
JP (2) JP7315010B2 (ja)
WO (1) WO2021044638A1 (ja)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287180A (ja) 2003-03-24 2004-10-14 Fuji Photo Optical Co Ltd フォーカス情報表示装置
JP2004280048A (ja) 2003-02-24 2004-10-07 Fuji Photo Optical Co Ltd レンズ制御システム及びカメラ装置
US7003223B2 (en) 2003-02-24 2006-02-21 Fujinon Corporation Lens control system and focus information display apparatus
JP2006054785A (ja) 2004-08-16 2006-02-23 Canon Inc 撮影装置
EP1876828B1 (en) * 2006-07-03 2016-10-26 Axis AB Method and apparatus for configuring parameter values for cameras
JP4367539B2 (ja) 2007-08-24 2009-11-18 富士フイルム株式会社 モニタ付きカメラ
JP2009122289A (ja) 2007-11-13 2009-06-04 Sony Corp 撮影装置および撮影方法、並びにプログラム
JP5935233B2 (ja) 2010-11-02 2016-06-15 ソニー株式会社 撮像装置、撮像方法およびプログラム。
JP2013025005A (ja) 2011-07-20 2013-02-04 Sanyo Electric Co Ltd カメラ
JP5995607B2 (ja) * 2012-08-22 2016-09-21 キヤノン株式会社 電子機器、プログラムおよび記録媒体
JP2014110596A (ja) 2012-12-04 2014-06-12 Canon Inc 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP6337672B2 (ja) 2013-11-05 2018-06-06 ソニー株式会社 カメラ装置および表示部用画像信号の生成方法
US11689798B2 (en) 2014-09-30 2023-06-27 Nikon Corporation Electronic device, image-capturing device, and image-capturing system
JP6576171B2 (ja) * 2015-09-02 2019-09-18 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
JP6646444B2 (ja) 2015-12-28 2020-02-14 キヤノン株式会社 通信装置およびその制御方法
JP2018101930A (ja) 2016-12-21 2018-06-28 キヤノン株式会社 雲台システム

Also Published As

Publication number Publication date
US20220279114A1 (en) 2022-09-01
JPWO2021044638A1 (ja) 2021-03-11
JP7315010B2 (ja) 2023-07-26
US11889179B2 (en) 2024-01-30
EP4027632A1 (en) 2022-07-13
EP4027632A4 (en) 2022-10-19
WO2021044638A1 (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
EP3076659B1 (en) Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium
RU2653230C2 (ru) Способ и устройство воспроизведения изображений для предварительного просмотра
JP6602361B2 (ja) 電子機器及びその制御方法
JP2018107711A (ja) 撮像制御装置及びその制御方法
KR102146858B1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
KR20100027700A (ko) 촬영 방법 및 장치
CN107637063B (zh) 用于基于用户的手势控制功能的方法和拍摄装置
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
US20110242396A1 (en) Imaging device, display device, control method, and method for controlling area change
JP6442266B2 (ja) 撮像制御装置、その制御方法、プログラム、及び記憶媒体
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
WO2016013309A1 (ja) 表示制御装置、撮像装置及び表示制御方法
JP7315010B2 (ja) 撮影プログラム、情報処理装置、および方法
CN102970476B (zh) 用于显示全景图像的数字拍摄设备及其控制方法
JP5856436B2 (ja) コンテンツ管理システム、記録装置、操作装置、およびそれらの制御方法、記憶媒体、プログラム
JP6112985B2 (ja) 表示制御装置、方法及びプログラム並びに記憶媒体
JP2014112822A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2020150433A (ja) 処理装置、およびプログラム
WO2022030275A1 (ja) 撮像装置、情報処理装置、情報処理方法、及びプログラム
JP7463071B2 (ja) 電子機器および電子機器の制御方法
JP5818634B2 (ja) コンテンツ管理装置、記録装置、操作装置、コンテンツ管理システムおよびそれらの制御方法
JP6200194B2 (ja) 撮像装置及びその制御方法並びにプログラム
TWI662841B (zh) 影像播放裝置
JP2014175815A (ja) 表示制御装置、方法及びプログラム並びに記録媒体
JP2017103686A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230721