JP2017130735A - 表示制御装置、表示制御方法及びコンピュータプログラム - Google Patents
表示制御装置、表示制御方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2017130735A JP2017130735A JP2016007770A JP2016007770A JP2017130735A JP 2017130735 A JP2017130735 A JP 2017130735A JP 2016007770 A JP2016007770 A JP 2016007770A JP 2016007770 A JP2016007770 A JP 2016007770A JP 2017130735 A JP2017130735 A JP 2017130735A
- Authority
- JP
- Japan
- Prior art keywords
- auxiliary line
- display
- user
- screen
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
- G03B17/20—Signals indicating condition of a camera member or suitability of light visible in viewfinder
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
【課題】ユーザの要求を満たすよう、写真画像の構図決定の補助となる補助線を画面に重畳表示して、操作可能とする制御を行うことが可能な表示制御装置、表示制御方法及びコンピュータプログラムを提供する。
【解決手段】カメラによる撮像時において、構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置は、ユーザの要求を満たした、構図決定の補助となる補助線s1を表示する制御を行う。
【選択図】図17
【解決手段】カメラによる撮像時において、構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置は、ユーザの要求を満たした、構図決定の補助となる補助線s1を表示する制御を行う。
【選択図】図17
Description
本開示は、表示制御装置、表示制御方法及びコンピュータプログラムに関する。
デジタルスチルカメラやデジタルビデオカメラは、撮像者(ユーザ)にとって撮像時の構図決定の補助となる水準器や補助線を、ファインダやディスプレイに表示する機能を備えているものが多い。例えば特許文献1には、補助線の視認性を向上させるための技術が開示されている。
しかし、ユーザが撮像しようとする被写体によっては、予め用意されている水準器や補助線ではユーザの要求を満たさない。
そこで本開示では、ユーザの要求を満たした、構図決定の補助となる補助線を表示する制御を行うことが可能な、新規かつ改良された表示制御装置、表示制御方法及びコンピュータプログラムを提案する。
本開示によれば、画面に対するユーザの前記操作に応じて、撮像時における構図決定の補助となる補助線の画面への表示態様を制御する制御部を備える、表示制御装置が提供される。
また本開示によれば、画面に対するユーザの操作に応じて、撮像時における構図決定の補助となる補助線の画面への表示態様を制御することを含む、表示制御方法。
また本開示によれば、コンピュータに、画面に対するユーザの操作に応じて、撮像時における構図決定の補助となる補助線の画面への表示態様を制御することを実行させる、コンピュータプログラム。
以上説明したように本開示によれば、ユーザの要求を満たした、構図決定の補助となる補助線を表示する制御を行うことが可能な、新規かつ改良された表示制御装置、表示制御方法及びコンピュータプログラムを提供することが出来る。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の実施の形態
1.1.背景
1.2.構成例
1.3.動作例
2.まとめ
1.本開示の実施の形態
1.1.背景
1.2.構成例
1.3.動作例
2.まとめ
<1.本開示の実施の形態>
[1.1.背景]
まず、本開示の実施の形態の背景について説明する。
[1.1.背景]
まず、本開示の実施の形態の背景について説明する。
上述したように、デジタルスチルカメラやデジタルビデオカメラを使用して風景や建物等を被写体として撮像するユーザは、確実に水平を出したいという欲求や、正確に構図設定したい欲求がある。そのようなユーザの欲求を満たすために、デジタルスチルカメラやデジタルビデオカメラは、撮像者(ユーザ)にとって撮像時の構図決定の補助となる水準器や補助線を、ファインダやディスプレイに表示する機能を備えているものが多い。
日の丸構図、三分割構図などの一般的な構図で撮像する場合は、デジタルスチルカメラが予め用意している水準器や補助線がユーザの撮像時の構図決定の補助となりうる。水準器は、デジタルカメラが水平になっているかどうかをユーザに提示するものであり、補助線は、例えば三分割構図の撮像の際の補助となるように縦や横に等間隔で引かれている。ユーザは、ファインダやディスプレイに表示される水準器や補助線を使用して構図を決定することで、上述した一般的な構図での撮像が可能になる。しかし、ユーザが撮像しようとする被写体によっては、デジタルスチルカメラが予め用意している水準線や補助線がユーザの撮像時の構図決定の補助とならない場合がある。
例えば、水準器はデジタルスチルカメラが水平かどうかを提示することが出来るが、デジタルスチルカメラの水平が構図的には水平では無い場合がある。また、既存の補助線は、一般的な構図で撮像するために画面を縦及び横に三分割するように表示されることが多いが、既存の水準器や補助線では構図を決定しにくい場合もある。
また、自然の風景など被写体が主に曲線で構成いる場合には、既存の水準器や補助線は直線で表示されるために構図の決定に利用しにくい場合がある。さらに、建物などの被写体の構図を厳密に決定したい場合に既存の水準器や補助線は構図決定の補助とならない場合もある。
従って、既存の補助線や水準器では、ユーザの要求に完全に応えることが出来ていなかった。
そこで本件開示者は、上述した背景に鑑み、撮像時にユーザが所望する補助線を表示することが出来る技術について鋭意検討を行った。その結果、本件開示者は、ユーザの操作に応じて撮像時にユーザが所望する補助線を表示することが出来る技術を考案するに至った。
以上、本開示の実施の形態の背景について説明した。続いて、本開示の実施の形態について詳細に説明する。
[1.2.構成例]
まず、本開示の実施の形態に係る画像処理装置100の構成例について説明する。図1は、本開示の実施の形態に係る画像処理装置100の構成例を示すブロック図である。以下、図1を用いて本開示の実施の形態に係る画像処理装置100の構成例について説明する。
まず、本開示の実施の形態に係る画像処理装置100の構成例について説明する。図1は、本開示の実施の形態に係る画像処理装置100の構成例を示すブロック図である。以下、図1を用いて本開示の実施の形態に係る画像処理装置100の構成例について説明する。
図1に示したように、本開示の実施の形態に係る画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
(1)撮像部
撮像部102は、ズームレンズフォーカスレンズ、撮像素子などからなる、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、実空間を映す映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。また、撮像部102におけるズームレンズやフォーカスレンズは、画像処理装置100から着脱可能に設けられていても良い。
撮像部102は、ズームレンズフォーカスレンズ、撮像素子などからなる、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、実空間を映す映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。また、撮像部102におけるズームレンズやフォーカスレンズは、画像処理装置100から着脱可能に設けられていても良い。
(2)センサ部
センサ部104は、測位センサ、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどの様々なセンサを含み得る。センサ部104により測定され得る画像処理装置100の位置、姿勢又は動きは、カメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
センサ部104は、測位センサ、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどの様々なセンサを含み得る。センサ部104により測定され得る画像処理装置100の位置、姿勢又は動きは、カメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
測位センサとしては、例えば具体的には、GNSS(Global Navigation Satellite System)受信機、および/または通信装置などを含みうる。GNSSは、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)、QZSS(Quasi−Zenith Satellites System)、またはGalileoなどを含みうる。また測位センサとしては、例えば、無線LAN、MIMO(Multi−Input Multi−Output)、セルラー通信(例えば携帯基地局を使った位置検出、フェムトセル)、または近距離無線通信(例えばBLE(Bluetooth Low Energy)、Bluetooth(登録商標))などの技術を利用して位置を検出するものが含まれうる。
(3)入力部
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。当該タッチセンサは、2点以上の接触を検知可能であることが望ましいが、2点以上の接触を検知可能なものに限定されるものではない。その代わりに(又はそれに加えて)、入力部106は、マウスまたはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。当該タッチセンサは、2点以上の接触を検知可能であることが望ましいが、2点以上の接触を検知可能なものに限定されるものではない。その代わりに(又はそれに加えて)、入力部106は、マウスまたはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
(4)記憶部
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する補助線データを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する補助線データを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)表示部
表示部110は、LCD(Liquid Crystal Display)またはOLED(Organic light−Emitting Diode)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
表示部110は、LCD(Liquid Crystal Display)またはOLED(Organic light−Emitting Diode)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
表示部110には、制御部118の制御により、例えば、スルー画像、すなわち、撮像部102が逐次撮像する被写体画像が表示される。また表示部110には、制御部118の制御により補助線が描画される。表示部110に表示される補助線は、上記スルー画像に重畳されうるが、スルー画像に重畳されていなくてもよい。
(6)通信部
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)バス
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
(8)制御部
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
本実施形態では、制御部118は、入力部106に対するユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示部110に表示させる。制御部118が、入力部106に対するユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示部110に表示させることで、画像処理装置100は、ユーザが所望する補助線を表示部110に表示することができる。
以上、図1を用いて本開示の実施の形態に係る画像処理装置100の構成例について説明した。続いて、本開示の実施の形態に係る画像処理装置100の動作例について説明する。
[1.3.動作例]
図2は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図2に示したのは、ユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示する際の、画像処理装置100の動作例である。以下、図2を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明する。
図2は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図2に示したのは、ユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示する際の、画像処理装置100の動作例である。以下、図2を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明する。
画像処理装置100は、ユーザによる、入力部106を使用した補助線の描画を開始する入力操作を検出するまで待機する(ステップS101)。入力操作の検出は制御部118が行う。
画像処理装置100は、例えば、表示部110に表示される画像処理装置100の設定画面から、ユーザの入力部106を使用した所定の入力操作に応じて、補助線を表示部110に描画するための画面に遷移して、補助線を描画するための入力操作の受け付けを行っても良い。また画像処理装置100は、表示部110に設けられるタッチパネルに対するユーザの所定のジェスチャ操作を認識して、補助線を表示部110に描画するための画面に遷移してもよい。ユーザは、画像処理装置100を三脚等で固定した後は、その画像処理装置100を動かしたくないという要求が強い。従って画像処理装置100は、表示部110に設けられるタッチパネルに対するユーザの所定のジェスチャ操作によって補助線を表示部110に描画するための画面に遷移することで、ユーザの上記要求を満たすことが出来る。
画像処理装置100は、補助線を表示部110に描画するための画面を表示部110に表示している間、撮像部102が逐次撮像する被写体画像(スルー画像)を表示部110に表示し続けても良い。画像処理装置100は、スルー画像を表示部110に表示し続けている状態で、ユーザの入力部106を使用した所定の入力操作に応じて、補助線を表示部110に描画することで、より効率的にユーザに補助線を任意に描画させることができる。
画像処理装置100は、補助線を表示部110に描画するための画面を表示部110に表示している間、記憶部108に保存されている画像の中から1枚の画像を読み出し、その読み出した画像を表示部110に表示し続けても良い。画像処理装置100は、記憶部108から読み出した画像を表示部110に表示し続けている状態で、ユーザの入力部106を使用した所定の入力操作に応じて、補助線を表示部110に描画することで、より効率的にユーザに補助線を任意に描画させることができる。
補助線の描画を開始する入力操作は特定の操作に限定されるものでは無い。例えば、後述するように、表示部110の縁の部分をユーザの指が接触または近接すると、画像処理装置100は表示部110への補助線の描画を開始しても良い。また例えば、後述するように、既に表示部110に補助線が描画されている状態において、その補助線をユーザの指が接触または近接すると、画像処理装置100は表示部110へのその補助線の描画(編集や移動)を開始しても良い。
ユーザによる、入力部106を使用した補助線の描画を開始する入力操作を検出すると(ステップS101、Yes)、続いて画像処理装置100は、ユーザによる、入力部106を使用した入力操作に応じた補助線の表示部110への描画を行う(ステップS102)。入力操作に応じた補助線の表示部110への描画は制御部118が行う。
そして画像処理装置100は、ユーザによる、入力部106を使用した補助線の描画を終了する入力操作を検出するまで待機する(ステップS103)。ユーザによる、入力部106を使用した補助線の描画を終了する入力操作を検出すると(ステップS103、Yes)、画像処理装置100は、ユーザの入力操作に応じた補助線の描画を終了する。
以上、図2を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明した。続いて、画像処理装置100による補助線の描画の具体例について詳細に説明する
図3は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図3に示したのは、ユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示部110に描画する際の、画像処理装置100の動作例である。以下、図3を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明する。
画像処理装置100(制御部118)は、補助線を表示部110に描画する際に、ユーザの入力操作に応じて、補助線の追加処理(ステップS111)、補助線の描画処理(ステップS112)、及び補助線の移動処理(ステップS113)を行う。また画像処理装置100は、ユーザの入力操作に応じて、描画した補助線の精度向上処理(ステップS114)を行う。補助線の精度向上のための入力操作は、例えば表示部110に表示されている画像の拡大や縮小のための操作であり、画像の拡大の操作としては、例えば表示部110に対するピンチアウト操作や、入力部106に設けられている拡大のための操作があり、画像の縮小の操作としては、例えば表示部110に対するピンチイン操作や、入力部106に設けられている縮小のための操作がありうる。
表示部110への補助線の追加処理(ステップS111)及び補助線の描画処理(ステップS112)の例について説明する。図4は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図4に示したのは、補助線の追加処理及び補助線の描画処理を行う際の画像処理装置100の動作例である。
画像処理装置100は、補助線の始点の指定を行う所定の操作(例えば、表示部110への指などの接触または近接)をユーザが行ったことを検出すると(ステップS121)、ユーザが設定しようとする補助線の始点を表示部110へ設定する。
図5は、ユーザが補助線の始点を指定する操作を行う様子を示す説明図である。図5は、補助線の始点の指定を行う所定の操作として、ユーザの手U1の指が表示部110の上辺の1点に接触する様子を示す説明図である。ユーザの手U1の指が表示部110の上辺の1点に接触したことを検出すると、制御部118は、ユーザの手U1の指が接触した位置を補助線の始点に設定する。
続いて画像処理装置100は、補助線の長さや角度の調整を行う所定の操作(例えば、表示部110に対する補助線の始点の位置からのドラッグ操作)をユーザが行ったことを検出すると(ステップS122)、ユーザが設定しようとする補助線の長さや角度を表示部110へ設定する。
図6は、ユーザが補助線の長さや角度を調整する操作を行う様子を示す説明図である。図6は、補助線の長さや角度を調整する操作として、図5に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、補助線を始点の位置から直線で表示部110に描画する。
続いて画像処理装置100は、補助線の終点の指定を行う所定の操作(例えば、表示部110への指などの接触または近接の解除)をユーザが行ったことを検出すると(ステップS123)、ユーザが設定しようとする補助線の終点を表示部110へ設定する。
図7は、ユーザが補助線の終点を指定する操作を行う様子を示す説明図である。図7は、補助線の終点の指定を行う所定の操作として、ユーザの手U1の指が表示部110から離れた様子を示す説明図である。ユーザの手U1の指が表示部110から離れたことを検出すると、制御部118は、ユーザの手U1の指が表示部110から離れた位置を補助線の終点に設定する。
画像処理装置100は、上述の一連の動作を実行することで、ユーザの操作に応じて補助線を表示部110に描画することができる。もちろん、画像処理装置100はユーザの操作に応じて複数の補助線を表示部110に描画することができる。ただ、補助線を増やしすぎると帰って構図決定の妨げとなる場合もあると考えられるので、画像処理装置100は、ユーザの操作に応じて描画できる補助線の数に上限を設けても良い。画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画することで、画像処理装置100は、ユーザが撮影時に所望する補助線を表示部110に表示することができる。なお、図5〜図7にはユーザの操作に応じて描画される補助線のみが表示部110に表示されている状態が示されているが、上述したように、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画する際にスルー画像を表示部110に表示し続けていてもよい。
また、図5〜図7で示した例では、ユーザに補助線の始点を指定させて補助線の終点までドラッグさせることで表示部110に補助線を任意に描画させていたが、本開示は係る例に限定されるものではない。画像処理装置100は、補助線の始点及び終点の2点をユーザに順次指定させることで表示部110に補助線を描画してもよい。
画像処理装置100は、表示部110に一度描画した補助線を、ユーザの操作に応じて移動したり変形したりすることができる。続いて、表示部110への補助線の移動処理(ステップS113)の例について説明する。図8は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図8に示したのは、補助線の平行移動処理を行う際の画像処理装置100の動作例である。
画像処理装置100は、平行移動対象の補助線の指定を行う所定の操作(例えば、表示部110への指などの接触または近接)をユーザが行ったことを検出すると(ステップS131)、ユーザが平行移動させようとする補助線を決定する。
図9は、ユーザが平行移動対象の補助線を指定する操作を行う様子を示す説明図である。図9は、平行移動対象の補助線の指定を行う所定の操作として、ユーザの手U1の指が表示部110に表示されている補助線上の1点に接触する様子を示す説明図である。ユーザの手U1の指が表示部110に表示されている補助線上の1点に接触したことを検出すると、制御部118は、ユーザの手U1の指が接触した位置にある補助線を平行移動対象に設定する。
続いて画像処理装置100は、補助線の平行移動を行う所定の操作(例えば、補助線の接触位置からの表示部110に対するドラッグ操作)をユーザが行ったことを検出すると(ステップS132)、ユーザの操作に応じて表示部110に描画している補助線を平行移動させる。
図10は、ユーザが補助線を平行移動させる操作を行う様子を示す説明図である。図10は、補助線を平行移動させる操作として、図9に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、表示部110に描画している補助線を平行移動させる。
続いて画像処理装置100は、補助線の平行移動を終了する所定の操作(例えば、表示部110への指などの接触または近接の解除)をユーザが行ったことを検出すると(ステップS133)、表示部110に描画している補助線の平行移動を終了する。
図11は、ユーザが補助線の平行移動を終了する操作を行う様子を示す説明図である。図11は、補助線の平行移動を終了する所定の操作として、ユーザの手U1の指が表示部110から離れた様子を示す説明図である。ユーザの手U1の指が表示部110から離れたことを検出すると、制御部118は、表示部110に描画している補助線の平行移動を終了する。
なお、図9〜図11にはユーザの操作に応じて描画される補助線のみが表示部110に表示されている状態が示されているが、上述したように、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画する際にスルー画像を表示部110に表示し続けていてもよい。
図12は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図12に示したのは、補助線の回転移動処理を行う際の画像処理装置100の動作例である。
画像処理装置100は、回転移動対象の補助線の指定を行う所定の操作(例えば、表示部110への指などの接触または近接)をユーザが行ったことを検出すると(ステップS141)、ユーザが移動させようとする補助線を決定する。図13は、ユーザが移動対象の補助線を指定する操作を行う様子を示す説明図である。図13は、移動対象の補助線の指定を行う所定の操作として、ユーザの手U1の2本の指がそれぞれ表示部110に表示されている補助線の両端に接触する様子を示す説明図である。ユーザの手U1の指が表示部110に表示されている補助線の両端に接触したことを検出すると、制御部118は、ユーザの手U1の指が接触した位置にある補助線を回転移動対象に設定する。
続いて画像処理装置100は、補助線の回転移動を行う所定の操作(例えば、補助線の接触位置からの表示部110に対するドラッグ操作)をユーザが行ったことを検出すると(ステップS142)、ユーザの操作に応じて表示部110に描画している補助線を回転移動させる。図14は、ユーザが補助線を回転移動させる操作を行う様子を示す説明図である。図14は、補助線を回転移動させる操作として、図13に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、表示部110に描画している補助線を回転移動させる。
続いて画像処理装置100は、補助線の回転移動を終了する所定の操作(例えば、表示部110への指などの接触または近接の解除)をユーザが行ったことを検出すると(ステップS143)、表示部110に描画している補助線の回転移動を終了する。図15は、ユーザが補助線の移動を終了する操作を行う様子を示す説明図である。図15は、補助線の回転移動を終了する所定の操作として、ユーザの手U1の指が2本とも表示部110から離れた様子を示す説明図である。ユーザの手U1の指が2本とも表示部110から離れたことを検出すると、制御部118は、表示部110に描画している補助線の回転移動を終了する。なお、図13〜図15にはユーザの操作に応じて描画される補助線のみが表示部110に表示されている状態が示されているが、上述したように、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画する際にスルー画像を表示部110に表示し続けていてもよい。
ユーザによる補助線の回転移動の操作は係る例に限定されるものではない。例えば、ユーザが補助線の一端を指で接触した状態で別の指で補助線上の任意の場所を接触してドラッグ操作を行ったことを検出すると、画像処理装置100は、その操作に基づいて表示部110に描画している補助線を回転移動させてもよい。
次に、表示部110へ描画した補助線の精度向上処理(ステップS114)の例について説明する。図16は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図16に示したのは、表示部110へ描画した補助線の精度向上処理を行う際の画像処理装置100の動作例である。
画像処理装置100は、補助線の精度向上を行うために表示部110の画像を拡大する所定の操作(例えば、表示部110に対するピンチアウト操作)をユーザが行ったことを検出すると(ステップS151)、表示部110の画像を拡大する処理を行う。
図17は、表示部110に対する拡大処理が行われた後の状態を示す説明図である。図17には、表示部110に拡大前の元の画像p1及び、補助線s1が重畳されている拡大後の画像p2が表示されている状態が示されている。なお、画像p1は、撮像部102が撮像している画像(スルー画像)であってもよい。
続いて画像処理装置100は、補助線の精度向上を行う所定の操作(例えば、補助線の接触位置からの表示部110に対するドラッグ操作)をユーザが行ったことを検出すると(ステップS152)、ユーザの操作に応じて表示部110に描画している補助線を平行移動させる。
図18は、ユーザが補助線s1を平行移動させる操作を行う様子を示す説明図である。図18は、補助線s1を平行移動させる操作として、図17に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、表示部110に描画している補助線s1を平行移動させる。もちろん、補助線の精度向上を行う所定の操作によって行われるのは補助線s1の平行移動に限られず、補助線s1の回転移動が行われても良い。
画像処理装置100は、補助線の精度向上を終了するために表示部110の画像を縮小する(元の表示に戻す)所定の操作(例えば、表示部110に対するピンチイン操作)をユーザが行ったことを検出すると(ステップS153)、表示部110の画像を縮小して元の表示に戻す処理を行う。図19は、表示部110に対する縮小処理が行われた後の状態を示す説明図である。図19には、表示部110に補助線s1が重畳されている元の画像p1が表示されている状態が示されている。
画像処理装置100は、このように表示部110に表示している画像の拡大処理を受け付けることで、ユーザに補助線の精度を向上させることが出来る。
以上説明したように、画像処理装置100は、ユーザの操作に応じて、ユーザの撮像の補助となる補助線を表示部110に表示することが出来る。画像処理装置100は、ユーザの操作に応じて補助線を表示部110に表示する際に、スルー画像に重畳することで、ユーザの構図決定を効果的に補助することが可能になる。
上述の説明では、操作体の一例としてユーザが指を使用して補助線を任意に描画する例を示したが、本開示は係る例に限定されるものではなく、画像処理装置100は、ユーザの身体の一部では無く、スタイラスなどのデバイスによる補助線の描画を受け付けても良い。
上述の例では、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画していたが、本開示は係る例に限定されるものではない。例えば、撮像部102が撮像している画像に対する画像処理を行い、その画像処理の結果に応じて補助線を表示部110に表示してもよい。
例えば、撮像部102が撮像している画像に建物が含まれ、その建物の境界に補助線を合わせたい場合に、画像処理装置100はユーザの操作に応じて補助線を表示部110に描画することも出来るが、画像処理によってその建物のエッジを検出し、そのエッジの位置に補助線を描画しても良い。
図20は、画像処理装置100による補助線の描画処理の例を示す説明図である。図20に示したのは、撮像部102が撮像している画像p11に対する画像処理によって補助線を画像p11に重畳して描画する処理の一例である。画像処理装置100は、撮像部102が撮像している画像p11にエッジ検出のための所定のフィルタを通して画像p12を生成する。そして画像処理装置100は、画像p12に対してエッジ検出を行い、例えば直線部分が最も長いエッジに補助線s11を描画する。
画像処理装置100は、このように描画した補助線s11に対しても、もちろんユーザの操作に応じて平行移動処理や回転移動処理、精度向上処理を行いうる。
画像処理装置100は、ユーザに描画させた補助線を、記憶部108や、通信部112を通じて外部の装置に保存してもよい。画像処理装置100は、補助線の保存を自動的に行っても良く、ユーザの所定の操作に応じて行っても良い。画像処理装置100は、補助線を保存する際には、位置情報や向きの情報等と一緒に保存しても良い。
また、画像処理装置100は、保存した補助線を、ユーザの所定の操作に応じて読み出してもよい。また画像処理装置100は、補助線を読み出す際に、画像処理装置100の現在位置情報や向きの情報を用いて読み出す補助線を決定しても良い。補助線の情報と一緒にその補助線を設定した画像処理装置100の位置や向きの情報が保存されていれば、画像処理装置100は、その位置や向きの情報に合致した、または似ていた補助線を読み出すことが出来る。画像処理装置100は、補助線を読み出す際に、画像処理装置100の現在位置情報や向きの情報を用いて読み出す補助線を決定することで、他のユーザが設定した補助線をユーザに使用させて、撮像の参考にさせることが可能になる。
また画像処理装置100は、撮像した画像を記憶部108に保存する際に、ユーザが設定した補助線が重畳された状態の画像を保存しても良い。画像処理装置100は、ユーザが設定した補助線が重畳された状態の画像を保存することで、補助線がどのように撮像画像に生かされているかをユーザに確認させることが出来る。
画像処理装置100は、ユーザの入力部106を使用した所定の操作や、所定のジェスチャ操作に応じて、表示部110に描画した補助線に関係した別の補助線を表示させても良い。例えば、画像処理装置100は、ユーザの入力部106を使用した所定の操作や、所定のジェスチャ操作に応じて、表示部110に描画した補助線から見て、表示部110の水平方向または垂直方向に線対称となる位置に、別の補助線を新たに描画しても良い。画像処理装置100は、線対称となる位置に新たな補助線を描画することで、上下または左右のバランスが取れた構図での撮像の補助となりうる。
画像処理装置100は、補助線として直線以外のものもユーザに表示部110に描画させることができる。画像処理装置100は、例えば、補助線としてユーザに自由に線を表示部110に描画させても良く、また線を描画する操作の他に、正円や楕円を描画する操作、正三角形、正四角形その他の図形を描画する操作に応じて、補助線としてそれらの図形を表示部110に描画しても良い。また画像処理装置100は、例えば、複数の線が補助線として表示部110に描画されている状態で、ユーザの操作によってそれぞれの線の端部が連結されると、その連結された線を一つの図形とした補助線を表示部110に描画しても良い。
画像処理装置100は、撮像時の撮像モードに応じて補助線の色や線種、形状を変化させても良い。撮像モードとは、画像処理装置100を使用して被写体を撮像する際に、撮像する被写体や撮像時の状況に応じて、絞り、シャッタ速度、ISO感度、ホワイトバランス、色調や彩度、顔認識の有無、ストロボ発光の有無、スローシンクロの有無、等のパラメータを自動的に設定するためのものである。
例えば、ユーザが撮像モードとして風景の撮像に適したモードを選択した場合、画像処理装置100は、補助線を直線ではなくフリーハンドでユーザに描画させるようにしてもよい。自然の風景は直線では無く曲線で構成されることが多いからである。また例えば、ユーザが撮像モードとして人物の撮像に適したモードを選択した場合、画像処理装置100は、補助線を直線ではなく、人物の顔が収まるように正円や楕円などでユーザに描画させるようにしてもよい。
なお画像処理装置100は、撮像時の撮像モードの他に、ユーザが設定したシャッタ速度や絞りの設定によって補助線の色や線種、形状を変化させても良い。
画像処理装置100は、センサ部104が取得したセンサデータにより得られる姿勢や、三脚への固定の有無によって、ユーザに描画させる補助線の候補を変化させても良い。例えば、画像処理装置100は、センサ部104が取得したセンサデータから、画像処理装置100が縦向きであるか、横向きであるかに応じてユーザに描画させる補助線の候補を変化させても良い。
また画像処理装置100は、撮像しようとする画像が静止画なのか動画なのかで、ユーザに描画させる補助線の線種や形状などを変化させても良い。撮像しようとする画像が静止画なのか動画なのかで、ユーザが所望する補助線の形状や形態は異なる場合もあるからである。
また画像処理装置100は、撮像部102が撮像している画像の認識結果に基づいてユーザに描画させる補助線の線種や形状などを変化させても良い。撮像部102が撮像している画像の認識は制御部118が実行しうる。画像処理装置100は、撮像部102が撮像している画像を認識して、撮像部102が撮像している画像に人物の顔が含まれていれば、補助線を直線ではなく、人物の顔が収まるように正円や楕円などでユーザに描画させるようにしてもよい。
また画像処理装置100は、撮像部102に備えられている(レンズが着脱可能である場合には、画像処理装置100に装着された)レンズが有する特性に応じてユーザに描画させる補助線の候補を変化させても良い。例えば画像処理装置100は、撮像部102に備えられているレンズが、中心射影方式のレンズである通常のレンズか、等距離射影方式のレンズである魚眼レンズかに応じて、ユーザに描画させる補助線の候補を変化させても良い。
制御部118は、どのようなレンズが画像処理装置100に装着されているかを、予め、またはレンズとの通信によって知りうる。例えば、魚眼レンズ等の、撮像される画像の歪みが大きくなるレンズが撮像部102に備えられていれば、画像処理装置100は、直線ではなく円弧状の補助線を、ユーザの操作に応じて表示部110に描画してもよい。
上述した補助線の描画は、例えば、カメラと連携して撮像の指示を行うスマートフォンやタブレット端末などの携帯端末が行っても良い。例えば、カメラで撮像した画像を表示する携帯端末が、ユーザの操作に応じて画面上に補助線を描画する処理を行っても良い。
複数の画像処理装置100を使用して同一の被写体を撮像する際に、他の画像処理装置100との間で補助線を連動させてもよい。図21は、4台の画像処理装置100a〜100dが同一の被写体を撮像している様子の一例を示す説明図である。
画像処理装置100aは、ユーザの操作に応じて表示部110に補助線を描画すると、その補助線の情報を他の画像処理装置100b〜100dに送信しても良い。画像処理装置100aから補助線の情報を受信した画像処理装置100b〜100dは、画像処理装置100aが描画した位置に合わせて補助線をそれぞれの表示部110に描画しても良い。
このように、補助線の情報を装置間で連動させることで、複数の画像処理装置100を使用して同一の被写体を撮像する際に、被写体の位置合わせが容易になる。例えば、画像中の被写体の垂直方向の位置を合わせたい場合に、このように複数の画像処理装置100a〜100dで補助線の位置を連動させると、その位置合わせが容易となり得る。
上述した画像処理装置100による補助線の描画処理は、例えば、医療用途にも用いられうる。例えば内視鏡により患者の体内を撮像しながら手術を行う内視鏡手術システムにおいて、上述した画像処理装置100の処理を適用することで、内視鏡が撮像した画像を表示する画面に対し、術者の操作に応じて画面上に補助線の描画を行うことが可能になる。
画像処理装置100は、ユーザの所定の操作に基づいて、表示部110に描画した補助線を1本ずつ、または全て消去してもよい。また画像処理装置100は、ユーザの所定の操作に応じて、表示部110に描画した補助線を複製してもよい。ユーザがフリーハンドで描いた補助線を複数使用したい場合に、この補助線の複製機能は有益である。
<2.まとめ>
以上説明したように本開示の実施の形態によれば、ユーザの操作に応じて画面上に撮像の補助となる補助線を任意に描画する画像処理装置100が提供される。本開示の実施の形態に係る画像処理装置100は、例えば、表示部110に対するユーザの指などの接触または近接による操作を検出し、検出した操作の内容に応じた表示部110への補助線の描画を行う。
以上説明したように本開示の実施の形態によれば、ユーザの操作に応じて画面上に撮像の補助となる補助線を任意に描画する画像処理装置100が提供される。本開示の実施の形態に係る画像処理装置100は、例えば、表示部110に対するユーザの指などの接触または近接による操作を検出し、検出した操作の内容に応じた表示部110への補助線の描画を行う。
本開示の実施の形態に係る画像処理装置100は、このようにユーザの操作に応じて画面上に撮像の補助となる補助線を任意に描画することで、撮像時にユーザが所望する補助線を表示することを可能とする。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、ユーザが補助線の描画操作を行う入力装置は、メガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであってもよく、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて補助線の描画のために各種の入力が行われてもよい。また、ユーザが補助線の描画操作を行う入力装置は、ユーザの動きを検出可能なカメラであってもよい。当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて補助線の描画のための各種の入力が行われ得る。また、ユーザが補助線の描画操作を行う入力装置は、ユーザの声を収音可能なマイクロフォンであってもよい。当該マイクロフォンを介して音声によって補助線の描画のための各種の入力が行われ得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置。
(2)
前記制御部は、前記画面に表示されるスルー画像に重畳して前記補助線を表示させる、前記(1)に記載の表示制御装置。
(3)
前記ユーザによる操作は、前記画面への操作体の接触または近接である、前記(1)または(2)に記載の表示制御装置。
(4)
前記制御部は、被写体の認識結果に基づいて補助線を前記画面に表示させる、前記(1)〜(3)のいずれかに記載の表示制御装置。
(5)
前記制御部は、撮像時におけるモードに応じて前記補助線の画面への表示を制御する、前記(1)〜(4)のいずれかに記載の表示制御装置。
(6)
前記制御部は、前記モードに応じて前記補助線の形状を変化させる、前記(5)に記載の表示制御装置。
(7)
前記制御部は、前記モードに応じて前記補助線の線種を変化させる、前記(5)または(6)に記載の表示制御装置。
(8)
前記制御部は、前記操作に対応して、他の装置に表示されている補助線の表示態様を制御する、前記(1)〜(7)のいずれかに記載の表示制御装置。
(9)
前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に、既に表示している補助線と関係した別の補助線を表示させる、前記(1)〜(8)のいずれかに記載の表示制御装置。
(10)
前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に前記画面において線対称となるよう別の補助線を表示させる、前記(9)に記載の表示制御装置。
(11)
前記制御部は、撮像時に使用されるレンズの特性に応じて前記補助線の画面への表示を制御する、前記(1)〜(10)のいずれかに記載の表示制御装置。
(12)
前記制御部は、撮像時に使用されるレンズが中心射影方式のレンズか中心射影方式のレンズで無いかに応じて前記補助線の画面への表示を制御する、前記(11)に記載の表示制御装置。
(13)
前記制御部は、撮像時の位置情報に基づいて前記補助線の画面への表示を制御する、前記(1)〜(12)のいずれかに記載の表示制御装置。
(14)
前記制御部は、他の装置で作成された補助線の情報を位置情報に基づいて取得して、取得した前記情報を用いて前記補助線の画面への表示を制御する、前記(13)に記載の表示制御装置。
(15)
前記制御部は、前記画面に対する所定のジェスチャ操作の検出に応じて、前記補助線の前記画面への表示を制御する、前記(1)〜(14)のいずれかに記載の表示制御装置。
(16)
撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することを含む、表示制御方法。
(17)
撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することをコンピュータに実行させる、コンピュータプログラム。
(1)
撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置。
(2)
前記制御部は、前記画面に表示されるスルー画像に重畳して前記補助線を表示させる、前記(1)に記載の表示制御装置。
(3)
前記ユーザによる操作は、前記画面への操作体の接触または近接である、前記(1)または(2)に記載の表示制御装置。
(4)
前記制御部は、被写体の認識結果に基づいて補助線を前記画面に表示させる、前記(1)〜(3)のいずれかに記載の表示制御装置。
(5)
前記制御部は、撮像時におけるモードに応じて前記補助線の画面への表示を制御する、前記(1)〜(4)のいずれかに記載の表示制御装置。
(6)
前記制御部は、前記モードに応じて前記補助線の形状を変化させる、前記(5)に記載の表示制御装置。
(7)
前記制御部は、前記モードに応じて前記補助線の線種を変化させる、前記(5)または(6)に記載の表示制御装置。
(8)
前記制御部は、前記操作に対応して、他の装置に表示されている補助線の表示態様を制御する、前記(1)〜(7)のいずれかに記載の表示制御装置。
(9)
前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に、既に表示している補助線と関係した別の補助線を表示させる、前記(1)〜(8)のいずれかに記載の表示制御装置。
(10)
前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に前記画面において線対称となるよう別の補助線を表示させる、前記(9)に記載の表示制御装置。
(11)
前記制御部は、撮像時に使用されるレンズの特性に応じて前記補助線の画面への表示を制御する、前記(1)〜(10)のいずれかに記載の表示制御装置。
(12)
前記制御部は、撮像時に使用されるレンズが中心射影方式のレンズか中心射影方式のレンズで無いかに応じて前記補助線の画面への表示を制御する、前記(11)に記載の表示制御装置。
(13)
前記制御部は、撮像時の位置情報に基づいて前記補助線の画面への表示を制御する、前記(1)〜(12)のいずれかに記載の表示制御装置。
(14)
前記制御部は、他の装置で作成された補助線の情報を位置情報に基づいて取得して、取得した前記情報を用いて前記補助線の画面への表示を制御する、前記(13)に記載の表示制御装置。
(15)
前記制御部は、前記画面に対する所定のジェスチャ操作の検出に応じて、前記補助線の前記画面への表示を制御する、前記(1)〜(14)のいずれかに記載の表示制御装置。
(16)
撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することを含む、表示制御方法。
(17)
撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することをコンピュータに実行させる、コンピュータプログラム。
100 :画像処理装置
102 :撮像部
104 :センサ部
106 :入力部
108 :記憶部
110 :表示部
112 :通信部
116 :バス
118 :制御部
102 :撮像部
104 :センサ部
106 :入力部
108 :記憶部
110 :表示部
112 :通信部
116 :バス
118 :制御部
Claims (17)
- 撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置。
- 前記制御部は、前記画面に表示されるスルー画像に重畳して前記補助線を表示させる、請求項1に記載の表示制御装置。
- 前記ユーザによる操作は、前記画面への操作体の接触または近接である、請求項1に記載の表示制御装置。
- 前記制御部は、被写体の認識結果に基づく所定の前記補助線を前記画面に表示させる、請求項1に記載の表示制御装置。
- 前記制御部は、撮像時におけるモードに応じて前記補助線の画面への表示を制御する、請求項1に記載の表示制御装置。
- 前記制御部は、前記モードに応じて前記補助線の形状を変化させる、請求項5に記載の表示制御装置。
- 前記制御部は、前記モードに応じて前記補助線の線種を変化させる、請求項5に記載の表示制御装置。
- 前記制御部は、前記操作に対応して、他の装置に表示されている補助線の表示態様を制御する、請求項1に記載の表示制御装置。
- 前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に、既に表示している補助線と関係した別の補助線を表示させる、請求項1に記載の表示制御装置。
- 前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に前記画面において線対称となるよう別の補助線を表示させる、請求項9に記載の表示制御装置。
- 前記制御部は、撮像時に使用されるレンズの特性に応じて前記補助線の画面への表示を制御する、請求項1に記載の表示制御装置。
- 前記制御部は、撮像時に使用されるレンズが中心射影方式のレンズか中心射影方式のレンズで無いかに応じて前記補助線の画面への表示を制御する、請求項11に記載の表示制御装置。
- 前記制御部は、位置情報に基づいて前記補助線の画面への表示を制御する、請求項1に記載の表示制御装置。
- 前記制御部は、他の装置で作成された補助線の情報を位置情報に基づいて取得して、取得した前記情報を用いて前記補助線の画面への表示を制御する、請求項13に記載の表示制御装置。
- 前記制御部は、前記画面に対する所定のジェスチャ操作の検出に応じて、前記補助線の前記画面への表示を制御する、請求項1に記載の表示制御装置。
- 撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することを含む、表示制御方法。
- 撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することをコンピュータに実行させる、コンピュータプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016007770A JP2017130735A (ja) | 2016-01-19 | 2016-01-19 | 表示制御装置、表示制御方法及びコンピュータプログラム |
DE112016006250.8T DE112016006250T5 (de) | 2016-01-19 | 2016-11-25 | Anzeigesteuerungsvorrichtung, anzeigesteuerungsverfahren undcomputerprogramm |
US15/779,185 US11039072B2 (en) | 2016-01-19 | 2016-11-25 | Display control apparatus, display control method, and computer program |
PCT/JP2016/085053 WO2017126222A1 (ja) | 2016-01-19 | 2016-11-25 | 表示制御装置、表示制御方法及びコンピュータプログラム |
CN201680078696.7A CN108476278A (zh) | 2016-01-19 | 2016-11-25 | 显示控制装置、显示控制方法和计算机程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016007770A JP2017130735A (ja) | 2016-01-19 | 2016-01-19 | 表示制御装置、表示制御方法及びコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017130735A true JP2017130735A (ja) | 2017-07-27 |
Family
ID=59362635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016007770A Pending JP2017130735A (ja) | 2016-01-19 | 2016-01-19 | 表示制御装置、表示制御方法及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11039072B2 (ja) |
JP (1) | JP2017130735A (ja) |
CN (1) | CN108476278A (ja) |
DE (1) | DE112016006250T5 (ja) |
WO (1) | WO2017126222A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021056799A (ja) * | 2019-09-30 | 2021-04-08 | キヤノン株式会社 | 表示制御装置、その制御方法及びプログラム |
JP2021083073A (ja) * | 2020-07-03 | 2021-05-27 | 株式会社エクサウィザーズ | 撮影装置、情報処理装置、方法およびプログラム |
JP7362399B2 (ja) | 2019-09-30 | 2023-10-17 | キヤノン株式会社 | 表示制御装置およびその制御方法およびプログラム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWD192680S (zh) * | 2017-12-07 | 2018-09-01 | 旺矽科技股份有限公司 | 顯示螢幕之圖形化使用者介面 |
CN109816764B (zh) | 2019-02-02 | 2021-06-25 | 深圳市商汤科技有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN110989879B (zh) * | 2019-11-08 | 2021-04-09 | 东软集团股份有限公司 | 辅助线提示方法、装置、可读存储介质及电子设备 |
USD953361S1 (en) * | 2020-12-25 | 2022-05-31 | Canon Kabushiki Kaisha | Display screen with animated graphical user interface |
CN113395456B (zh) * | 2021-08-17 | 2021-11-30 | 南昌龙旗信息技术有限公司 | 辅助拍摄方法、装置、电子设备及计算机可读存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100565269B1 (ko) | 2003-05-15 | 2006-03-30 | 엘지전자 주식회사 | 카메라 기능을 구비한 이동통신 단말기의 촬영방법 |
JP2005198035A (ja) | 2004-01-07 | 2005-07-21 | Fuji Photo Film Co Ltd | デジタルカメラ |
CN101000451A (zh) | 2006-01-10 | 2007-07-18 | 英保达股份有限公司 | 自动构图支持装置及方法 |
US8177441B2 (en) * | 2007-08-29 | 2012-05-15 | Nintendo Co., Ltd. | Imaging apparatus |
US8130275B2 (en) * | 2008-06-13 | 2012-03-06 | Nintendo Co., Ltd. | Information-processing apparatus, and storage medium storing a photographing application launch program executed by information-processing apparatus |
US8675089B2 (en) | 2009-12-25 | 2014-03-18 | Samsung Electronics Co., Ltd. | Apparatus and method for assisting composition of photographic image |
JP2011211493A (ja) * | 2010-03-30 | 2011-10-20 | Sony Corp | 撮像装置、表示方法及びプログラム |
JP5525923B2 (ja) * | 2010-06-09 | 2014-06-18 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 |
JP5561019B2 (ja) | 2010-08-23 | 2014-07-30 | ソニー株式会社 | 撮像装置、プログラムおよび撮像方法 |
JP5131367B2 (ja) | 2011-05-31 | 2013-01-30 | カシオ計算機株式会社 | 撮影装置及びプログラム |
KR101902418B1 (ko) * | 2012-02-14 | 2018-10-04 | 삼성전자주식회사 | 휴대단말기의 이미지 편집장치 및 방법 |
CN103365952B (zh) * | 2012-04-06 | 2017-04-12 | 东芝医疗系统株式会社 | 医疗信息检索装置 |
KR102000536B1 (ko) * | 2012-12-28 | 2019-07-16 | 삼성전자주식회사 | 합성 이미지를 촬영하는 촬영 장치 및 그 방법 |
KR20140108995A (ko) * | 2013-03-04 | 2014-09-15 | 삼성전자주식회사 | 페이지의 일부 영역을 이용한 데이터 처리 방법 및 장치 |
JP6076168B2 (ja) | 2013-03-27 | 2017-02-08 | オリンパス株式会社 | 撮像装置、構図アシスト装置、構図アシスト方法、及び構図アシストプログラム |
KR20140132917A (ko) * | 2013-05-09 | 2014-11-19 | 삼성전자주식회사 | 휴대 전자기기와 연결 가능한 부가 장치를 통한 표시 방법 및 장치 |
JP6221656B2 (ja) * | 2013-11-08 | 2017-11-01 | 株式会社リコー | 情報処理装置、情報処理方法およびプログラム |
KR20160024583A (ko) * | 2014-08-26 | 2016-03-07 | 삼성전자주식회사 | 전자 장치 및 드로잉 기능 제공 방법 |
KR20160101580A (ko) * | 2015-02-17 | 2016-08-25 | 삼성전자주식회사 | 터치 스크린 패널의 활성화 영역 제어 방법 및 그 전자 장치 |
US9990740B2 (en) * | 2015-03-04 | 2018-06-05 | Adobe Systems Incorporated | Camera-based brush creation |
CN104902176B (zh) * | 2015-05-22 | 2018-07-06 | 广东欧珀移动通信有限公司 | 一种调整拍摄角度的提示方法及终端 |
-
2016
- 2016-01-19 JP JP2016007770A patent/JP2017130735A/ja active Pending
- 2016-11-25 WO PCT/JP2016/085053 patent/WO2017126222A1/ja active Application Filing
- 2016-11-25 DE DE112016006250.8T patent/DE112016006250T5/de not_active Withdrawn
- 2016-11-25 CN CN201680078696.7A patent/CN108476278A/zh active Pending
- 2016-11-25 US US15/779,185 patent/US11039072B2/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021056799A (ja) * | 2019-09-30 | 2021-04-08 | キヤノン株式会社 | 表示制御装置、その制御方法及びプログラム |
JP7314008B2 (ja) | 2019-09-30 | 2023-07-25 | キヤノン株式会社 | 表示制御装置、その制御方法及びプログラム |
JP7362399B2 (ja) | 2019-09-30 | 2023-10-17 | キヤノン株式会社 | 表示制御装置およびその制御方法およびプログラム |
JP2021083073A (ja) * | 2020-07-03 | 2021-05-27 | 株式会社エクサウィザーズ | 撮影装置、情報処理装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190387176A1 (en) | 2019-12-19 |
DE112016006250T5 (de) | 2018-10-18 |
US11039072B2 (en) | 2021-06-15 |
WO2017126222A1 (ja) | 2017-07-27 |
CN108476278A (zh) | 2018-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017126222A1 (ja) | 表示制御装置、表示制御方法及びコンピュータプログラム | |
US11954816B2 (en) | Display control device, display control method, and recording medium | |
US10530998B2 (en) | Image processing device, imaging device, image processing method, and program | |
US9319583B2 (en) | Camera device and methods for aiding users in use thereof | |
US9674444B2 (en) | Apparatus and method for positioning image area using image sensor location | |
US9836886B2 (en) | Client terminal and server to determine an overhead view image | |
JP7026819B2 (ja) | カメラの位置決め方法および装置、端末並びにコンピュータプログラム | |
WO2019033411A1 (zh) | 一种全景拍摄方法及装置 | |
BR112016013424B1 (pt) | método e terminal para aquisição de imagem panorâmica | |
EP3806443A1 (en) | Tracking photographing method and apparatus, and storage medium | |
US10291835B2 (en) | Information processing apparatus, imaging apparatus, information processing method, and imaging system | |
JP2008252930A (ja) | 電子カメラおよび画像表示装置および画像表示方法 | |
US10645295B2 (en) | Imaging control apparatus, imaging control method, and computer program | |
JP2008160879A (ja) | 電子カメラおよび画像表示装置および画像表示方法 | |
US11991450B2 (en) | Composition control device, composition control method, and program | |
JP2014116790A (ja) | 撮像装置 | |
JP2015139124A (ja) | 画像生成装置、画像生成システム、画像生成方法、及びプログラム | |
JP2016082356A (ja) | 電子機器およびプログラム | |
US20220385829A1 (en) | Information processing apparatus, control method, and storage medium | |
CN109952758A (zh) | 一种图像处理的方法及终端 | |
JP2016046566A (ja) | 記録装置、その制御方法およびプログラム | |
JP2016134643A (ja) | 携帯機器、表示方法およびプログラム | |
BR122016017488B1 (pt) | Método e terminal para aquisição de imagem panorâmica | |
JP2014120814A (ja) | 撮像装置、情報処理装置、情報処理方法、プログラムならびに記憶媒体 | |
JP2015231166A (ja) | 撮像装置、サーバ、通信システム |