JP2014179969A - ユーザ機器及びその動作方法 - Google Patents

ユーザ機器及びその動作方法 Download PDF

Info

Publication number
JP2014179969A
JP2014179969A JP2013236895A JP2013236895A JP2014179969A JP 2014179969 A JP2014179969 A JP 2014179969A JP 2013236895 A JP2013236895 A JP 2013236895A JP 2013236895 A JP2013236895 A JP 2013236895A JP 2014179969 A JP2014179969 A JP 2014179969A
Authority
JP
Japan
Prior art keywords
image
effect
filter
icon
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013236895A
Other languages
English (en)
Other versions
JP6505967B2 (ja
Inventor
Woo-Yong Lee
宇 ▲ヨン▼ 李
Jaeyun Song
在 允 宋
康 煥 ▲オウ▼
Kang Hwan O
Hyun-Jung Kim
▲ヒュン▼ 廷 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014179969A publication Critical patent/JP2014179969A/ja
Application granted granted Critical
Publication of JP6505967B2 publication Critical patent/JP6505967B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Image Processing (AREA)

Abstract

【課題】電子装置の効率的な動作方法を提供する。
【解決手段】本発明の実施形態によるイメージ処理方法は、イメージセンサを介して第1イメージ(image)を取得する動作、前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示する動作及び前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示する動作を含む。様々な他の実施形態が可能である。
【選択図】図14

Description

本発明は、撮影機能を有するユーザ機器及びその動作方法に関する。
現在、電気通信産業の発達により、セルラーフォン、電子手帳、個人複合端末、ラップトップコンピュータなどのユーザ機器は現代社会の必需品になるとともに、急速に変化する情報を伝達するための重要な手段になっている。このようなユーザ機器は、タッチスクリーンを利用したGUI(Graphical User Interface)環境を介してユーザの作業を便利にし、ウェブ環境をベースにした様々なマルチメディアを提供するに至った。
最近、撮影機能のないユーザ機器を見つけることが難しいほど、ユーザ機器は撮影機能を基本仕様として備えており、その上、撮影に関連する様々な撮影エフェクトを提供している。携帯しやすいユーザ機器の特性上、ユーザは必要な瞬間を即座に撮影することができ、様々な撮影エフェクトが適用された自分だけの独特な写真を得ることができる。
韓国公開特許第10−2007−0106324号
本発明の目的は、電子装置の効率的な動作方法を提供することにある。
本発明の様々な実施形態によれば、イメージセンサから得られたイメージデータに様々なエフェクトを適用した後、これをアイコン(例えば、サムネイル(thumbnail)イメージ)で表示することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち1つを選択するジェスチャ(例えば、タッチ、ホバリング、シングルタッチ、ダブルタップ、ドラッグアンドドロップ、フリッキング等)が発生した場合、選択されたアイコンに指定されたフィルタのエフェクトを前記イメージデータに適用した後、これを画面に表示(例えば、ライブフィルタリング(live filtering))することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち複数のアイコンが選択された場合、選択されたアイコンに指定されたフィルタのエフェクトを前記イメージデータに共に適用した後、これを画面に表示することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち特定のアイコンが複数回選択された場合、アイコンが選択された回数分のフィルタのエフェクトを前記イメージデータに重複適用した後、これを画面に表示することができる。
本発明の様々な実施形態によれば、前記アイコンが選択された回数又はフィルタのエフェクトを前記イメージデータに適用したエフェクトの強度を前記アイコンに表示することができる。
本発明の様々な実施形態によれば、前記イメージデータにエフェクトを適用させた複数のフィルタをグループ化することができる。
本発明の様々な実施形態によれば、上記のグループ化した複数のフィルタのエフェクトをイメージに適用した後、これをアイコンで表示することができる。
本発明の様々な実施形態によれば、フィルタを外部(例えば、ネットワーク、電子メール、メッセンジャー又は着脱可能な外部メモリ等)から取得し、取得したフィルタのエフェクトを前記イメージデータに適用した後、これをアイコンで表示することができる。
本発明の様々な実施形態によれば、少なくとも1つの基準(例えば、選択頻度、エフェクトの類似性、エフェクト同士の合成可否等)に応じて上記のアイコンを配置することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち特定のアイコンが選択された場合、選択されたアイコンに指定されたフィルタのエフェクトと合成可能なエフェクトを有するフィルタが指定されたアイコンは、アクティブにし、合成できないエフェクトが指定されたフィルタのアイコンは非アクティブにすることができる。
本発明の様々な実施形態によれば、イメージデータをフィルタを用いて前処理した後、キャプチャしたイメージに適用されたエフェクトと、イメージデータにフィルタを適用することなくキャプチャした後、同じフィルタを用いて後処理したイメージに適用されたエフェクトと、が同一であってもよい。
本発明の様々な実施形態によれば、フィルタを一括的に管理し、イメージセンサからのイメージをライブフィルタリングするためのデータ経路であっても、レンダリングが完了したイメージ(例えば、スナップイメージ等)を後処理するためのデータ経路であっても、フィルタをサポートさせることができる。
本発明の様々な実施形態によれば、ネットワークからフィルタエフェクトパッケージファイルをダウンロードしてインストールする場合、フィルタパッケージファイルに含まれたフィルタをフィルタエフェクトリストに追加し、イメージにフィルタパッケージファイルに含まれたフィルタのエフェクトを適用した後、これをアイコン(例えば、サムネイル(thumbnail)イメージ)で表示するか、又はフィルタパッケージファイルに含まれた既設定されたアイコンを表示することができる。
本発明の様々な実施形態によれば、ネットワークからフィルタパッケージファイルをダウンロードしてインストールする場合、フィルタパッケージファイルに含まれたフィルタ名をユーザ言語に適合した言語に翻訳し、フィルタを示すアイコンに表示することができる。
本発明の様々な実施形態によれば、特定のフィルタをフィルタエフェクトリストから削除する場合、フィルタが属するフィルタパッケージファイルを共に除去してストレージ浪費を低減することができる。
本発明の様々な実施形態によれば、イメージ処理方法は、イメージセンサを介して第1イメージ(image)を取得する動作、前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示する動作及び前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示する動作を含むことができる。
本発明の様々な実施形態によれば、電子装置は、イメージセンサを介して第1イメージ(image)を取得するための取得モジュール、前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示するための表示モジュール及び前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示するためのエフェクト適用モジュールを含むことができる。
本発明の様々な実施形態によれば、フィルタ管理モジュールは、少なくとも1つのフィルタを格納するフィルタディレクトリと、イメージ前処理及びイメージ後処理に前記少なくとも1つのフィルタを共用するための統合フィルタ管理部と、を含むことができる。
本発明の様々な実施形態によれば、電子装置は、イメージセンサと、少なくとも1つ以上のプロセッサと、メモリ及び前記メモリに格納され、前記少なくとも1つのプロセッサによって実行可能に構成される少なくとも1つ以上のプログラムを含み、前記プログラムは、前記イメージセンサを介して第1イメージデータを取得して、前記第1イメージデータにエフェクトを適用した第2イメージデータを表示する少なくとも1つのアイコンを画面に表示し、前記少なくとも1つのアイコンの選択に反応し、前記第1イメージデータに前記エフェクトを用いて前記画面に表示することができる。
本発明の様々な実施形態によれば、イメージセンサから取得されたイメージデータに様々なエフェクトを適用した後、これをアイコン(例えば、サムネイルイメージ)で表示できる。ユーザはアイコンを介してエフェクトが適用されたイメージをあらかじめ見ることができるので、写真撮影に反映しようとするエフェクトを容易に選択できる。
本発明の実施形態によるユーザ機器のブロック構成図である。 本発明の実施形態によるフィルタ管理モジュールのブロック構成図である。 本発明の様々な実施形態によるイメージ処理モジュールのブロック構成図である。 本発明の実施形態によるイメージ処理手順を示すフローチャートである。 本発明の実施形態による第2イメージの表示手順を示すフローチャートである。 本発明の実施形態による第2イメージの表示手順を示すフローチャートである。 本発明の実施形態による第2イメージの表示手順を示すフローチャートである。 本発明の実施形態による第1イメージの表示手順を示すフローチャートである。 本発明の実施形態による第1イメージの表示手順を示すフローチャートである。 本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。 本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。 本発明の実施形態による第2イメージを表示する動作手順を示すフローチャートである。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。
以下、本発明の好ましい実施形態を添付された図面を参照して詳しく説明する。なお、本発明を説明するに当たって、関連する公知の機能または構成に対する具体的な説明が本発明の要旨を不要に不明確にする可能性があると判断された場合、その詳細な説明は省略する。また、以下で記載される用語は、本発明における機能を考慮して定義された用語であって、これはユーザ、オペレータの意図または慣例などによって異なることがある。したがって、その定義は本明細書全般にわたる内容に基づいて行われるべきである。
図1は、本発明の実施形態によるユーザ機器のブロック構成図である。
このようなユーザ機器100は、携帯電話(mobile phone)、モバイルパッド(mobile pad)、メディアプレーヤ(media player)、タブレットコンピュータ(tablet computer)、ハンドヘルドコンピュータ(handheld computer)又はPDA(Personal Digital Assistant)のような装置である。また、このような装置のうち2種以上の機能を結合した装置を含む任意の移動端末であってもよい。
ユーザ機器100は、ホスト装置110、外部メモリ装置121、イメージセンサ122、センサ装置123、GPS(Global Positioning System)受信装置124、無線通信装置125、オーディオ装置126、外部ポート装置127、タッチスクリーン装置128、その他の入力/制御装置129及び電源供給装置130を含むことができる。外部メモリ装置121及び外部ポート装置127は複数個で構成されてもよい。
ホスト装置110は、内部メモリ111、1つ以上のプロセッサ112及びインタフェース113を含むことができる。内部メモリ111、1つ以上のプロセッサ112及びインタフェース113は、個別の構成要素であってもよく、または1つ以上の集積化した回路に構成されてもよい。
プロセッサ112は、様々なソフトウェアプログラムを実行してユーザ機器100のための様々な機能を行い、音声通信、ビデオ通信及びデータ通信のための処理及び制御を行うことができる。また、プロセッサ112は、このような通常の機能に加えて、内部メモリ111及び/又は外部メモリ装置121に格納された特定のソフトウェアプログラム(命令セット)を実行してそのプログラムに対応する特定の様々な機能を行う役割を果たすこともできる。例えば、プロセッサ112は、内部メモリ111及び/又は外部メモリ装置121に格納されたソフトウェアプログラムと連動して実施形態の方法を行うことができる。また、プロセッサ112は、1つ以上のアプリケーションプロセッサユニット(APU:Application Processor Unit)、グラフィックプロセッサユニット(GPU:Graphic Processor Unit)、オーディオプロセッサユニット(Audio Processor Unit)、通信プロセッサユニット(Communication Processor Unit)などを含んでもよい。
アプリケーションプロセッサユニットは、ユーザ機器に適用されるOS(Operating System)及び各種機能などを駆動させることができ、コア(core)、メモリ(memory)、ディスプレイシステム/コントローラ(display system/controller)、マルチメディアエンコード/デコードコーデック(mutimedia encoding/decoding codec)、2D/3Dアクセラレータエンジン(accelerator engine)、ISP(Image Signal Processor)、カメラ、オーディオ、モデム、各種ハイアンドロースピードシリアル/パラレル接続インタフェース(High&low speed Serial/Parallel connectivity interface)などの数多くの機能をすべて1つのチップに集めたものである。例えば、アプリケーションプロセッサユニットは、OS、アプリケーションを駆動させ、様々なシステム装置/インタフェースを制御する機能を1つのチップに集めたSOC(System−On−Chip)といえる。
グラフィックプロセッサユニットは、グラフィックに関連した演算を処理し、映像情報処理、加速化、信号転換、画面出力などを司ることができる。このようなグラフィックプロセッサユニットは、アプリケーションプロセッサユニットのグラフィック作業によって生じるボトルネック現象を解決でき、アプリケーションプロセッサユニットより2D又は3Dグラフィックを迅速に処理できる。
オーディオプロセッサユニットは、オーディオに関連した演算を処理するが、デジタル又はアナログ形式のオーディオ信号をオーディオエフェクト又はエフェクトユニットを介して変更できる。
通信プロセッサユニットは、ユーザ機器100と他の機器との通信処理を司り、ユーザ機器100がネットワークの通信機能を利用しようとする時、その接続を設定する等の機能を実行することができる。
インタフェース113は、ユーザ機器100の様々な装置とホスト装置110とを接続させることができる。
外部メモリ装置121は、1つ以上の磁気ディスク格納装置のような高速ランダムアクセスメモリ及び/又は不揮発性メモリ、1つ以上の光格納装置及び/又はフラッシュメモリ(例えば、NAND、NOR)を含むことができる。外部メモリ装置121は、ソフトウェアを格納し、ソフトウェアは、オペレーティングシステムプログラム、通信プログラム、カメラプログラム、グラフィックプログラム、1つ以上のアプリケーションプログラム、ユーザインタフェースプログラム、コーデックプログラムなどを含むことができる。プログラムという用語は、命令の集合又は命令セット(instruction set)又はプログラムと表現する場合もある。通信プログラム、カメラプログラム、グラフィックプログラム、1つ以上のアプリケーションプログラム、ユーザインタフェースプログラム及びコーデックプログラムは、オペレーティングシステムプログラムが様々な機能を様々なAPI(Application Programming Interface)を介して利用できる。
オペレーティングシステムプログラムは、WINDOWS(登録商標)、LINUX(登録商標)、ダーウィン(Darwin)、RTXC、UNIX(登録商標)、OS X、又はVxWorksのような内蔵オペレーションシステムを表し、通常のシステム動作(system operation)を制御する様々なソフトウェア構成要素を含んでもよい。このような一般的なシステム動作の制御は、メモリ管理及び制御、格納ハードウェア(装置)制御及び管理、電力制御及び管理などを含んでもよい。また、オペレーティングシステムプログラムは、様々なハードウェア(装置)とソフトウェア構成要素(プログラム)との間の通信を円滑にする機能も実行することができる。
通信プログラムは、無線通信装置125又は外部ポート装置127を介してコンピュータ、サーバ及びユーザ機器などとの通信を可能にすることができる。
カメラプログラムは、カメラ関連プロセス及び機能を可能にするカメラ関連ソフトウェア構成要素を含むことができる。カメラプログラムは、オープンジーエル(OpenGL:Open Graphics Library)、DirectXなどのAPIのサポートの元にイメージセンサ122からのイメージに様々なエフェクトを適用する前処理と、キャプチャしたスナップイメージに様々なエフェクトを適用する後処理と、を実行することができる。このようなエフェクトのためのフィルタは、前処理及び後処理の両方に共用で使用できるように一括的に管理され、他のプログラムでも共用で使用されるとよい。
グラフィックプログラムは、タッチスクリーン装置128にグラフィックを提供して表示するための様々なソフトウェア構成要素を含んでもよい。グラフィックプログラムは、オープンジーエル(OpenGL:Open Graphics Library)、DirectXなどのようなAPI(Application Programming Interface)に基づいてグラフィックを生成でき、映像に様々なエフェクトを与えられる様々なフィルタを提供できる。グラフィック(graphics)という用語は、テキスト(text)、ウェブページ(web page)、アイコン(icon)、デジタルイメージ(digital image)、ビデオ(video)、アニメーション(animation)などを表す。このようなグラフィックプログラムは、イメージを後処理する際のユーザビリティを重視したイメージビューワ(image viewer)、イメージ編集プログラムなどと、イメージの前処理を最適化したカメラ関連プログラム、ビデオ電話関連プログラムなどである。グラフィックプログラムは、レンダリングが完了したイメージに様々なエフェクトを適用する後処理を行うか、又はイメージに対する様々なエフェクトを適用する前処理を行うことができる。このようなエフェクトのためのフィルタは、上記のように、他のプログラムと共用で使用できるように一括的に管理されてもよい。
上記のカメラプログラム及び/又はグラフィックプログラムは、外部(ネットワーク、電子メール、メッセンジャー、又は着脱可能な外部メモリ等)からフィルタパッケージファイルをダウンロードしてインストールする機能を行うことができる。ネットワークからフィルタパッケージファイルをダウンロードしてインストールする場合、フィルタパッケージファイルに含まれたフィルタ及びフィルタに関するデータ(アイコンイメージ、フィルタ名、フィルタバージョンなど)は一括的にデータベースで管理されてもよい。また、このようなフィルタがデータベースから削除された場合、このフィルタだけが削除されるのではなくフィルタパッケージファイルがすべて削除されてもよい。カメラプログラム及び/又はグラフィックプログラムは、追加されたフィルタを示すアイコンイメージ及びフィルタ名を共に表示できる。フィルタ名はユーザ言語に適合するように翻訳されて表示されてもよい。特に、カメラプログラムは、イメージセンサ122から得られたイメージに追加されたフィルタのエフェクトを適用した後、これをアイコン(例えば、サムネイルイメージ)で提供することができる。
アプリケーションプログラムは、ブラウザ(browser)、電子メール(email)、インスタントメッセージ(instant message)、ワードプロセッシング(word processing)、キーボードエミュレーション(keyboard emulation)、アドレスブック(address book)、タッチリスト(touch list)、ウィジェット(widget)、デジタル著作権管理(DRM、Digital Right Management)、音声認識(voice recognition)、音声複製、位置決定機能(position determining function)、ロケーションベースサービス(location based service)などを含むことができる。
ユーザインタフェースプログラムは、ユーザインタフェースに関連した様々なソフトウェア構成要素を含んでもよい。また、ユーザインタフェースプログラムは、ユーザインタフェースの状態がどのように変更されるか、そしてユーザインタフェースの状態の変更がどのような条件で行われるか等に対する内容を含んでもよい。
コーデックプログラムは、ビデオファイルのエンコード及びデコードに関連したソフトウェア構成要素を含んでもよい。
外部メモリ装置121は、上記のプログラムの他にも、追加的なプログラム(命令)をさらに含んでもよい。また、ユーザ機器100の様々な機能は、1つ以上のストリームプロセッシング(processing)及び/又は特定用途向け集積回路(ASIC、Application Specific Integrated circuit)を含むハードウェア及び/又はソフトウェア及び/又はこれらの組み合わせによって実行されてもよい。
イメージセンサ122は、撮影対象から反射されてきた光を電気信号に変換できる。イメージセンサ122は、CCD(charged coupled device)又はCMOS(complementary metal−oxide semiconductor)などである。
ユーザ機器100の様々な構成要素は、1つ以上の通信バス(符号記載せず)又はストリームライン(符号記載せず)を介して接続されてもよい。
センサ装置123は、モーションセンサ、光センサ、温度センサなどを含み様々な機能を実行することができる。例えば、モーションセンサは、ユーザ機器100の動きを感知し、光センサは周辺光を感知できる。
GPS受信装置124は、GPS衛星から送られる信号を受信して現在の位置を計算できる。
無線通信装置125は、無線通信を行うことができるが、無線周波数送受信機、光(例えば、赤外線)送受信機を含んでもよい。このような無線通信装置125は、少なくとも1つのアンテナ、RF(Radio Frequency)コネクタなどを含むモジュールを含んでもよい。無線通信装置125は、通信ネットワークに応じてGSM(登録商標)(Global System for Mobile Communication)ネットワーク、EDGE(Enhanced Data GSM Environment)ネットワーク、CDMA(Code Division Multiple Access)ネットワーク、W−CDMA(W−Code Division Multiple Access)ネットワーク、LTE(Long Term Evolution)ネットワーク、OFDMA(Orthogonal Frequency Division Multiple Access)ネットワーク、Wi−Fi(Wireless Fidelity)ネットワーク、WiMaxネットワーク又は/及びBluetooth(登録商標)ネットワークのうち1つを介して動作するように設計されるとよい。
オーディオ装置126は、スピーカ1261及びマイクロホン1262に接続され、音声認識、音声複製、デジタルレコーディング及び通話機能などのオーディオ入力及び出力を司り、オーディオアンプを含んでもよい。オーディオ装置126は、スピーカ1261及びマイクロホン1262を介してユーザとコミュニケーションをとることができる。また、オーディオ装置126は、ホスト装置110からデータ信号を受信し、受信したデータ信号を電気信号に変換し、変換した電気信号をスピーカ1261を介して出力させることができる。スピーカ1261は、電気信号を可聴周波数帯域に変換して出力し、マイクロホン1262は、人やその他の音源から伝達された音波を電気信号に変換できる。また、オーディオ装置126は、マイクロホン1262から電気信号を受信し、受信した電気信号をオーディオデータ信号に変換し、変換したオーディオデータ信号をホスト装置110に送信できる。オーディオ装置126は、ユーザ機器100に脱着可能なイヤホン、ヘッドホン又はヘッドセットを含んでもよい。
外部ポート装置127は、ユーザ機器100を他のユーザ機器と直接接続するか、ネットワーク(例えば、インターネット、イントラネット、無線LAN等)を介して他のユーザ機器に間接的に接続できる。
タッチスクリーン装置128は、ユーザ機器100とユーザとの間の入力及び出力インタフェースを提供することができる。タッチスクリーン装置128は、タッチ感知技術を適用してユーザのタッチ入力をホスト装置110に伝達し、ホスト装置110から提供される視覚情報、例えば、テキスト、グラフィック、ビデオなどをユーザに表示することができる。タッチスクリーン装置128は、映像を表示するディスプレイを含み、このようなディスプレイは、EWD(Electro Wetting Display)、E−Paper、PDP(Plasma Display Panel)、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)及びAMOLED(Active Matrix Organic Light Emitting Diodes)のうち1つである。また、タッチスクリーン装置は、タッチを受信する装置を含み、このような装置は、スタイラスペン用デジタイザ(digitizer)、静電容量方式(capacitive overlay)タッチパネル、抵抗膜方式(resistance overlay)タッチパネル、表面超音波方式(surface acoustic wave)タッチパネル、赤外線方式(infrared beam)タッチパネルのうち1つである。
その他の入力/制御装置129は、ボリューム制御のためのアップ/ダウンボタンを含んでもよい。その他にも、その他の入力/制御装置129は、特定の機能が与えられたプッシュボタン(push button)、ロッカーボタン(locker button)、ロッカー(locker)スイッチ、サムホイール(thumb−wheel)、ダイヤル(dial)、スティック(stick)、及びスタイラスなどのポインタ装置のうち少なくとも1つを含んでもよい。
電源供給装置130は、少なくとも1つの電源管理用集積回路(PMIC:Power Management Integrated Circuit)を含むことができる。PMICはバッテリ電源(パワー)を調整することができる。例えば、プロセッサ112は、処理すべき負荷(load)に合わせてそれによるインタフェース信号を電源供給装置130に送信できる。電源供給装置130は、プロセッサ112に供給するコア電圧をそれに合わせて調整することができ、プロセッサ112は、常時最小限の電力で駆動できる。ホスト装置110用PMICだけでなく、外部メモリ装置121、イメージセンサ122、センサ装置123、GPS受信装置124、無線通信装置125、オーディオ装置126、外部ポート装置127、タッチスクリーン装置128及びその他の入力/制御装置129のうち少なくとも1つに関連する少なくとも1つのPMICが構成されてもよい。また、1つの統合PMICが構成され、統合PMICはホスト装置110だけでなく、外部メモリ装置121、イメージセンサ122、センサ装置123、GPS受信装置124、無線通信装置125、オーディオ装置126、外部ポート装置127、タッチスクリーン装置128及びその他の入力/制御装置129のうち少なくとも1つに関するバッテリ電源を調整することもできる。
図2は、本発明の実施形態によるフィルタ管理モジュールのブロック構成図である。
図2を参照すると、アプリケーション部220は、イメージ前処理をサポートするアプリケーション221、イメージ後処理をサポートするアプリケーション223及びイメージ前処理及びイメージ後処理の両方をサポートするアプリケーション225のうち少なくとも1つを含むことができる。このようなアプリケーション部220は、イメージビューワ(image viewer)、イメージ編集アプリケーション、カメラアプリケーション、画像電話アプリケーションなどを含んでもよい。
統合フィルタ管理部210は、各フィルタに関するAPI関数を設定し、それぞれのフィルタをAPI化して処理できる。アプリケーション部220から特定のエフェクトに対する要求があった場合、フィルタディレクトリ230から特定のフィルタをロードし、ロードしたフィルタに関するAPI関数を呼び出すことができる。統合フィルタ管理部210は、ビデオ通話アプリケーションなどに関するイメージ前処理に特化したAPI及びイメージビューワアプリケーションなどに関するイメージ後処理に特化したAPIを提供することができる。統合フィルタ管理部210は、アプリケーション部220から要求されたエフェクトに該当するフィルタの作業を処理することに適したオブジェクト(CPU又はGPU)を指定することができる。
統合フィルタ管理部210は、フィルタ編集機能を提供することができる。ユーザはフィルタ編集機能を介してお気に入りのフィルタエフェクトリスト(favorite effect list)を設定することができ、統合フィルタ管理部210は、お気に入りのフィルタエフェクトリストをフィルタディレクトリ230に格納することができる。また、ユーザはフィルタ編集機能を介して削除しようとするフィルタを選択でき、統合フィルタ管理部210は、特定のフィルタをフィルタディレクトリ230から削除するとができる。特に、削除しようとするフィルタがフィルタパッケージファイル(フィルタインストールファイル)を介してインストールされたものである場合、統合フィルタ管理部210は、このフィルタパッケージファイルを削除してストレージ空間を確保することができる。このようなフィルタパッケージファイルは、フィルタ、フィルタ名(filter name)、アイコンイメージ(icon image)、ベンダー(vendor)、フィルタタイプ(前処理/後処理)、又はバージョンなどを含むことができる。また、ユーザはフィルタ編集機能を介して合成可能な複数のエフェクトを選択することができ、統合フィルタ管理部210は、合成可能な複数のエフェクトに関するフィルタをグループ化してフィルタディレクトリ230に格納することができる。また、統合フィルタ管理部210は、ユーザ機器100で運用されるずべてのイメージ処理関連フィルタをフィルタディレクトリ230に一括的に格納して管理するので、統合フィルタ管理部210は特定のフィルタをイメージ前処理及びイメージ後処理に共用で使用することができる。
フィルタディレクトリ230は、複数のフィルタを格納し、上記の統合フィルタ管理部210によって管理されてもよい。
フィルタダウンロード部240は、ダウンロード機能を提供することができる。ユーザはダウンロード機能を介して外部(例えば、ネットワーク、電子メール、メッセンジャー、又は着脱可能な外部メモリ等)からフィルタをダウンロードし、統合フィルタ管理部210は、獲得したフィルタをフィルタディレクトリ230に格納できる。また、フィルタダウンロード部240は、フィルタインストール機能をさらに提供できる。ユーザはネットワークからフィルタパッケージファイルをダウンロードし、フィルタインストール機能を介してフィルタパッケージファイルをインストールすることができる。フィルタパッケージファイルがインストールされた場合、統合フィルタ管理部210は、フィルタパッケージファイルに含まれたフィルタ及びフィルタ関連データ(例えば、フィルタ名、アイコンイメージ、ベンダー、又はフィルタタイプ等)をフィルタディレクトリ230に格納することができる。
図3は、本発明の様々な実施形態によるイメージ処理モジュールのブロック構成図である。
図3を参照すると、イメージ処理モジュール250は、獲得モジュール260、表示モジュール270及びエフェクト適用モジュール280を含むことができる。
取得モジュール260は、イメージセンサ122を介して第1イメージを取得することができる。
表示モジュール270は、第1イメージに対するエフェクトに対応する少なくとも1つの第2イメージを第1イメージとともに表示することができる。
エフェクト適用モジュール280は、少なくとも1つの第2イメージの選択に反応して第1イメージの少なくとも一部をエフェクトを用いて表示することができる。
図4は、本発明の実施形態によるイメージ処理手順を示すフローチャートである。
図4を参照すると、ステップ401で、プロセッサ112(例えば、取得モジュール260)は、イメージセンサ122から第1イメージを取得することができる。ステップ403で、プロセッサ112(例えば、表示モジュール270)は第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを第1イメージとともに表示することができる。第1イメージはイメージセンサ122から画面にライブ出力されてもよい。第2イメージは第1イメージに特定エフェクトを適用させて生成することができる。第2イメージはアイコン(例えば、サムネイルイメージ)で表示されてもよい。ステップ405で、プロセッサ112(例えば、エフェクト適用モジュール280)は、少なくとも1つの第2イメージの選択に対する応答として第1イメージの少なくとも一部をエフェクトを用いて表示することができる。例えば、ユーザはジェスチャ(例えば、タッチ、ホバリング、シングルタッチ、ダブルタップ、ドラッグアンドドロップ、又はフリッキング等)を介して画面に表示された第2イメージを選択することができる。第2イメージの選択があった場合、第1イメージは第2イメージのエフェクトを用いて表示される。1つの第2イメージが複数回選択された場合、第1イメージは第2イメージのエフェクトを選択回数分用いて表示される。複数の第2イメージが選択された場合、第1イメージは複数の第2イメージのエフェクトを用いて表示される。
図5は、本発明の実施形態による第2イメージの表示手順を示すフローチャートである。
図5を参照すると、ステップ501で、プロセッサ112(例えば、取得モジュール260)は、少なくとも1つのエフェクトをロードできる。ステップ503で、プロセッサ112(例えば、表示モジュール270)は第1イメージに少なくとも1つのエフェクトを適用した少なくとも1つの第2イメージを表示できる。プロセッサ112(例えば、エフェクト適用モジュール280)は、エフェクトに対応するフィルタを用いて第1イメージのイメージデータを処理して、第2イメージを生成できる。
図6は、本発明の実施形態による第2イメージの表示手順を示すフローチャートである。
図6を参照すると、ステップ601で、プロセッサ112は、エフェクトフィルタを外部(例えば、ネットワーク、電子メール、メッセンジャー又は着脱可能な外部メモリ等)から取得できる。外部から得られたエフェクトフィルタはアプリケーションが共用で使用できるディレクトリに格納されてもよい。ステップ603で、プロセッサ112(例えば、表示モジュール270)は、第1イメージにエフェクトフィルタのエフェクトを適用した第2イメージを表示できる。
図7は、本発明の実施形態による第2イメージの表示手順を示すフローチャートである。
図7を参照すると、ステップ701で、プロセッサ112(例えば、表示モジュール270)はエフェクトをグループ化することができる。プロセッサ112は、同じ複数のエフェクトをグループ化することができる。プロセッサ112は、互いに異なるエフェクトをグループ化することができる。複数の第2イメージの選択があった後、撮影ボタンが押された場合、プロセッサ112は、複数のエフェクトをグループ化することができる。ステップ703で、プロセッサ112(例えば、表示モジュール270)は、第1イメージにグループ化したエフェクトを適用した第2イメージを表示することができる。
図8は、本発明の実施形態による第1イメージの表示手順を示すフローチャートである。
図8を参照すると、ステップ801で、プロセッサ112(例えば、エフェクト適用モジュール280)は、第2イメージの複数選択があったかを判定することができる。第2イメージの複数選択があった場合、プロセッサ112は、ステップ803を実行し、選択がなかった場合は、ステップ807を実行できる。ステップ803で、プロセッサ112は選択回数を表示することができる。ステップ805で、プロセッサ112は、第1イメージを第2イメージのエフェクトを選択された回数分用いて表示することができる。ステップ807で、プロセッサ112は、第1イメージを第2イメージのエフェクトを一回用いて表示することができる。
図9は、本発明の実施形態による第1イメージの表示手順を示すフローチャートである。
図9を参照すると、ステップ901で、プロセッサ112(例えば、エフェクト適用モジュール280)は互いに異なる第2イメージの選択があったかを判定することができる。互いに異なる第2イメージの選択があった場合、プロセッサ112は、ステップ903を実行し、選択がなかった場合は、図8の上記のステップ801以下の動作を実行することができる。ステップ903で、プロセッサ112は、第1イメージを第2イメージのエフェクトを用いて表示することができる。
図10は、本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。
図10を参照すると、ステップ1001で、プロセッサ112(例えば、表示モジュール270)は、第2イメージの選択頻度を確認することができる。ステップ1003で、プロセッサ112は選択頻度に応じて配置順序を決定できる。ステップ1005で、プロセッサ112は、配置順序に従って第2イメージを配置することができる。
図11は、本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。
図11を参照すると、ステップ1101で、プロセッサ112(例えば、表示モジュール270)は、類似したエフェクトの複数の第2イメージを検索できる。ステップ1103で、プロセッサ112は、検索した第2イメージをグループで配置できる。
図12は、本発明の実施形態による第2イメージを表示する動作手順を示すフローチャートである。
図12を参照すると、ステップ1201で、プロセッサ112(例えば、表示モジュール270)は、選択した第2イメージのエフェクトと合成可能なエフェクトに対応する少なくとも1つの選択されていない第2イメージをアクティブにすることができる。ステップ1203で、プロセッサ112は、選択した第2イメージのエフェクトと合成できないエフェクトに対応する少なくとも1つの選択されていない第2イメージを非アクティブにすることができる。
図13乃至21は、本発明の様々な実施形態によるカメラアプリケーションの画面である。カメラアプリケーションは、オペレーティングシステム(OS)が提供するカメラ関連機能をカメラAPIを介して利用することができる。カメラAPIは、オペレーティングシステムが提供するカメラ関連機能を利用する方法を定義し、プログラムが呼び出したそれぞれのカメラ関連機能を関数で提供することができる。カメラアプリケーションは、必要に応じてカメラAPIを呼び出して、様々な処理を実行することができる。
イメージセンサ122からライブ出力されるイメージデータは、画面1300にそのまま表示されるか、または又はライブフィルタリング(live filtering)によるエフェクト(effect)を適用された後、表示されてもよい。イメージデータは、イメージセンサ122によって被写体をリアルタイムで撮像されたもので、プレビューがサポートされ、そのフォーマットはYUVであってもよい。
図13は、カメラアプリケーションの初期画面である。
図13を参照すると、画面1300にはイメージセンサ122から出力されるイメージデータが表示されている。画面1300にはエフェクトメニューボタン1302が表示されてもよい。エフェクトメニューボタン1302が押された場合、イメージデータに適用できるエフェクトに対応するアイコンが出現されてもよい。画面1300には撮影ボタン1303が表示されてもよい。撮影ボタン1303が押された場合、スナップイメージを得ることができる。スナップイメージは、撮影ボタン1303が押された際に取得される高解像度のイメージを意味する。スナップイメージはプレビューをサポートしないため、ユーザはイメージデータを表示する画面1300を見ながら撮影ボタン1303を押して所望のスナップイメージを得ることができる。ユーザがエフェクトメニューボタン1302を押した場合、図14の画面1400になる。
図14を参照すると、ユーザがエフェクトメニューボタン1302を押すと、エフェクトメニューボタン1302は上側へ移動し、画面1400の下側には水平に配列された複数のアイコン1401,1402,1403,1404,1405及び1406が出現されるとよい。アイコン1401,1402,1403,1404,1405及び1406は上側に水平に配列されるか又は左側又は右側に垂直に配列されてもよい。ユーザがもう一度エフェクトメニューボタン1302を押すと、図13の画面1300のようにエフェクトメニューボタン1302は本来の位置に戻り、アイコン1401,1402,1403,1404,1405及び1406は消去されるとよい。ユーザがイメージセンサ122から取得されたイメージデータを表示する領域をタッチした場合、図13の画面1300に戻ることができる。アイコン1401,1402,1403,1404,1405及び1406に対する選択が所定時間の間なかった場合、図13の画面1300に戻ってもよい。1番目のアイコン1401は、イメージセンサ122から取得されたイメージデータにエフェクトを何も適用していないイメージデータを表示することができる。その他のアイコン1402,1403,1404,1405及び1406は、イメージセンサ122から取得されたイメージデータに適用できるエフェクト(effect)に対応する。アイコン1402,1403,1404,1405及び1046は、イメージセンサ122から取得されたイメージデータに各エフェクトを適用したイメージデータを表示することができる。例えば、2番目のアイコン1402は、イメージセンサ122から取得されたイメージデータにレッド(RED)エフェクトを適用したイメージデータを表示することができる。3番目のアイコン1403は、イメージセンサ122から取得されたイメージデータにグリーン(GREEN)エフェクトを適用したイメージデータを表示できる。その他のアイコン1404,1405及び1406もイメージセンサ122から取得されたイメージデータに各エフェクトを適用したイメージデータを表示することができる。1番目のアイコン1401にはエフェクト未適用を示す文字「ORIGINAL」1411が表示されてもよい。その他の残りのアイコン1402,1403,1404,1405及び1406には各エフェクトを示す文字1412,1413,1414,1415及び1416が表示されてもよい。アイコン1401,1402,1403,1404,1405及び1406が配置された下側領域で、ユーザが右側から左側へフリッキング(flicking)タッチ1420を行った場合、アイコン1401,1402,1403,1404,1405及び1406は、画面1400の左にスクロールされ、上記の方式の新しいアイコン1501,1502,1503,1504,1505及び1506が図15の画面1500から見えるように表示されてもよい。図15の画面1500でユーザが2番目のアイコン1502を選択した場合、図16の画面1600から見えるように、イメージセンサ122から取得されたイメージデータは選択されたアイコン1502のエフェクト(SKETCH)を適用された後、図16の画面1600のように表示されるとよい。アイコンを選択するユーザのジェスチャは、タッチ、ホバリング、シングルタッチ、ダブルタップ、ドラッグアンドドロップ、フリッキング1523などであってもよい。例えば、ユーザが2番目のアイコン1502をタッチした後、イメージセンサ122から得られたイメージデータを表示する領域にフリッキング1523した場合、2番目のアイコン1502は選択されるとよい。アイコンが選択された場合、イメージセンサ122から取得されたイメージデータを表示する領域に、選択されたアイコンが広がるようなアクションが表示されてもよい。
図16を参照すると、選択されたアイコン1602には選択を示すチェックボックス1622が表示されてもよい。ユーザがチェックボックス1622をタッチした場合、アイコン1602の選択は解除されてもよい。ユーザがイメージセンサ122から取得されたイメージデータを表示する領域をタッチした後、選択されたアイコン1602にフリッキング1623した場合、アイコン1602の選択は解除されてもよい。アイコン1602の選択が解除された場合、チェックボックス1622は消去されてもよい。アイコン1602の選択が解除された場合、イメージセンサ122から取得されたイメージデータに適用されたスケッチエフェクトは解除されてもよい。アイコン1602の選択が解除された場合、イメージセンサ122から取得されたイメージデータを表示する領域が小さくなりながらアイコン1602に吸収されるようなアクションが表示されてもよい。ユーザが上記1番目のアイコン1401を押した場合、アイコン1602の選択が解除されてもよい。
図17を参照すると、互いに異なる複数のアイコンが選択された場合、イメージセンサ122から取得されたイメージデータに複数のエフェクトを適用したイメージデータが表示されてもよい。例えば、2番目のアイコン1702及び5番目のアイコン1705が選択された場合、イメージセンサ122から取得されたイメージデータにスケッチエフェクト及びモノクロエフェクトを適用したイメージデータが表示されてもよい。
図18を参照すると、1つのアイコンが複数回選択された場合、イメージセンサ122から取得されたイメージデータにエフェクトを複数回適用したイメージデータが表示されている。例えば、2番目のアイコン1802が一回選択され、5番目のアイコン1805が3回選択された場合、イメージセンサ122から得られたイメージデータにスケッチエフェクトを一回適用し、モノクロエフェクトを3回適用したイメージデータが表示されてもよい。アイコンの選択回数が多いほどイメージセンサ122から取得されたイメージデータに適用するエフェクトの強度が高くなってもよい。選択された2番目のアイコン1802及び5番目のアイコン1805には選択回数を示す数字「1」1832及び「3」1835が表示されてもよい。一回選択された2番目のアイコン1802にはチェックボックス1822のみが表示されてもよい。ユーザが5番目のアイコン1805のチェックボックス1825を1回タッチした場合、5番目のアイコン1805に表示される数字は「2」に変更されてもよく、イメージセンサ122から取得されたイメージデータに前より一段階低くなったモノクロエフェクトを適用したイメージデータが表示されてもよい。例えば、アイコンの選択回数の調節によって、イメージセンサ122から取得されたイメージデータに適用するエフェクトの強度を調節することができる。
図19を参照すると、アイコンの選択回数に応じてエフェクトの強度を示す符号1932,1935が表示されてもよい。
図20を参照すると、選択されたアイコンのエフェクトと合成可能なエフェクトのアイコンはアクティブにされてもよい。選択されたアイコンのエフェクトと合成できないエフェクトのアイコンは非アクティブにされてもよい。例えば、2番目のアイコン2002が選択された場合、2番目のアイコン2002のレッドエフェクトとともに適用可能なエフェクトのアイコン2001,2003,2005はアクティブにされてもよく、ともに適用できないエフェクトのアイコン2004,2006は非アクティブにされてもよい。
図21を参照すると、エフェクトが適用されたスナップイメージを撮影によって取得した場合、エフェクトに対応するアイコンが追加的に表示されてもよい。このアイコンはイメージセンサ122から取得されたイメージデータに複数のエフェクトを適用したイメージデータを表示することができる。例えば、図18の画面1800で撮影ボタン1303が押された場合、スナップイメージを取得することができ、スナップイメージに適用されたエフェクト(スケッチエフェクト1段階、モノクロエフェクト3段階)はグループ化されてもよい。グループ化されたエフェクトに対応するアイコン2102が追加的に表示されてもよい。アイコン2102にはイメージセンサ122から取得されたイメージデータにグループ化されたエフェクトを適用したイメージデータを表示されている。アイコン2102にはグループ化されたエフェクトに関する内容(例えば、エフェクト名、強度)2132が表示されてもよい。ユーザはアイコンの位置を変更することができる。例えば、ユーザは2番目のアイコン2102をタッチした後、4番目のアイコン2104と5番目のアイコン2105との間にドラッグした後、指を離した場合、2番目のアイコン2102は4番目のアイコン2104と5番目のアイコン2105との間に移動することができる。ユーザはイメージセンサ122から得られたイメージデータを表示する領域にアイコンを移動させることができ、このアイコンは上記のスクロールの影響を受けず常時見ることができる。アイコンは自動的に配置されてもよい。例えば、選択頻度の高いアイコンはユーザのアクセスに有利な場所に配置されてもよい。選択頻度の高いアイコンは上記のスクロールの影響を受けない画面の上側、中央などに配置されてもよい。エフェクトメニューボタン1302が押された場合、選択頻度の高いアイコンは即座に視認可能となる。類似したエフェクトのアイコンはグループで配置されてもよい。例えば、図14を参照すると、レッド(RED)エフェクトのアイコン1402、グリーン(GREEN)エフェクトのアイコン1403及びブルー(BLUE)エフェクトのアイコン1404はいずれも色感を調節するものであるから、グループで配置されてもよい。エフェクトの類似度の判断基準は明度、彩度などであってもよい。
カメラアプリケーションは、フィルタ追加機能を提供するが、ユーザはこのようなフィルタ追加機能によって外部(例えば、ネットワーク、電子メール、メッセンジャー、着脱可能な外部メモリ等)からフィルタを取得することができる。外部から取得したフィルタは指定されたディレクトリに格納され、アプリケーションはこれを共用で使用することができる。カメラアプリケーションは外部から取得したフィルタに対応するアイコンを追加することができる。このアイコンにはイメージセンサ122から取得されたイメージデータにフィルタのエフェクトを適用したイメージデータが表示されてもよい。
ユーザはネットワークからアプリケーションタイプのフィルタパッケージファイルをダウンロードし、これをインストールすることができる。フィルタパッケージファイルがインストールされた場合、フィルタパッケージファイルに含まれたフィルタは、アプリケーションが共用で使用できるように指定されたディレクトリに格納されてもよい。このフィルタはカメラアプリケーションのフィルタリストに自動的に追加されてもよく、上記の方式によってこのフィルタに対応するアイコンが追加的に表示されてもよい。
本発明の様々な実施形態によれば、それぞれのモジュールはソフトウェア、ファームウエア、ハードウェア又はその組み合わせで構成されてもよい。また、一部又は全体モジュールは、1つの個体(entity)で構成され、各モジュールの機能を同一に実行することができる。本発明の様々な実施形態によれば、それぞれの動作は順に、繰り返して、又は並列的に実行されてもよい。また、一部の動作は省略されてもよく、または他の動作が追加されて実行されてもよい。一例によれば、それぞれの動作は、本発明で記述した対応するモジュールによって実行されてもよい。
本発明の請求項及び/又は明細書に記載された実施形態による方法は、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせの形態に具現化(implemented)されてもよい。
ソフトウェアとして具現化される場合、1つ以上のプログラム(ソフトウェアモジュール)を格納するコンピュータ読み取り可能な格納媒体が提供されてもよい。コンピュータ読み取り可能な格納媒体に格納される1つ以上のプログラムは、電子装置(device)内の1つ以上のプロセッサによって実行されてもよい。1つ以上のプログラムは、電子装置に、本発明の請求項及び/又は明細書に記載された実施形態による方法を実行させる命令(instructions)を含んでもよい。
このようなプログラム(ソフトウェアモジュール、ソフトウェア)はランダムアクセスメモリ(random access memory)、フラッシュ(flash)メモリを含む不揮発性(non−volatile)メモリ、ロム(ROM、Read Only Memory)、電気的に消去可能なPROM(EEPROM、Electrically Erasable Programmable Read Only Memory)、磁気ディスク格納装置(magnetic disc storage device)、シーディーロム(CD−ROM、Compact Disc−ROM)、デジタル多目的ディスク(DVDs、Digital Versatile Discs)又は他の形態の光学格納装置、マグネティックカセット(magnetic cassette)に格納されてもよい。又は、これらの一部又は全部の組み合わせで構成されたメモリに格納されてもよい。また、それぞれの構成メモリは複数個含まれてもよい。
また、電子装置にインターネット(Internet)、イントラネット(Intranet)、LAN(Local Area Network)、WLAN(Wide LAN)、又はSAN(Storage Area Network)のような通信ネットワーク、又はこれらの組み合わせで構成された通信ネットワークを介してアクセス(access)できる取付可能な(attachable)格納装置(storage device)に格納されてもよい。このような格納装置は外部ポートを介して電子装置に接続することができる。
また、通信ネットワーク上の別途の格納装置が携帯用電子装置に接続することができる。
一方、本発明の詳細な説明では具体的な実施形態について説明したが、本発明の範囲から逸脱しない限度内で様々な変形が可能である。したがって、本発明の範囲は説明された実施形態に限定されて定められてはならず、後述する特許請求の範囲のみでなくこの特許請求の範囲と均等なものによって定められるべきである。

Claims (20)

  1. イメージ処理方法において、
    イメージセンサを介して第1イメージ(image)を取得する動作;
    前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示する動作;及び
    前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示する動作を含む方法。
  2. 前記少なくとも1つの第2イメージは、
    前記第1イメージに前記エフェクトを適用したイメージである請求項1に記載の方法。
  3. 前記少なくとも1つの第2イメージは、
    アイコン(icon)で表示される請求項1に記載の方法。
  4. 前記エフェクトの類似度に応じて前記少なくとも1つの第2イメージを配置する動作をさらに含む請求項1に記載の方法。
  5. 選択頻度に応じて前記少なくとも1つの第2イメージを配置する動作をさらに含む請求項1に記載の方法。
  6. 同時に適用可能なエフェクトかどうかに基づいて前記少なくとも1つの第2イメージをアクティブ又は非アクティブにする動作をさらに含む請求項1に記載の方法。
  7. 前記少なくとも1つの第2イメージの選択に反応して、選択回数を表示する動作をさらに含む請求項1に記載の方法。
  8. 前記エフェクトを外部から取得する動作をさらに含む請求項1に記載の方法。
  9. 電子装置において、
    イメージセンサを介して第1イメージ(image)を取得するための取得モジュール;
    前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示するための表示モジュール;及び
    前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示するためのエフェクト適用モジュールを含む電子装置。
  10. 前記少なくとも1つの第2イメージは、
    前記第1イメージに前記エフェクトを適用したイメージである請求項9に記載の電子装置。
  11. 前記少なくとも1つの第2イメージは、
    アイコン(icon)で表示される請求項9に記載の電子装置。
  12. 前記表示モジュールは、
    前記エフェクトの類似度に応じて前記少なくとも1つの第2イメージを配置する請求項9に記載の電子装置。
  13. 前記表示モジュールは、
    選択頻度に応じて前記少なくとも1つの第2イメージを配置する請求項9に記載の電子装置。
  14. 前記表示モジュールは、
    同時に適用可能なエフェクトかどうかに基づいて前記少なくとも1つの第2イメージをアクティブ又は非アクティブにする請求項9に記載の電子装置。
  15. 前記表示モジュールは、
    前記少なくとも1つの第2イメージの選択に反応して、選択回数を表示する請求項9に記載の電子装置。
  16. 前記エフェクトは、
    外部から取得される請求項9に記載の電子装置。
  17. 少なくとも1つのフィルタを格納するフィルタディレクトリ;及び
    イメージ前処理及びイメージ後処理に前記少なくとも1つのフィルタを共用するための統合フィルタ管理部を含むフィルタ管理モジュール。
  18. 外部から前記少なくとも1つのフィルタを取得するためのフィルタダウンロード部をさらに含む請求項17に記載のフィルタ管理モジュール。
  19. 前記外部は、
    ネットワーク、電子メール、メッセンジャー又は着脱可能な外部メモリのうち少なくとも1つである請求項17に記載のフィルタ管理モジュール。
  20. 電子装置において、
    イメージセンサ;
    少なくとも1つ以上のプロセッサ;
    メモリ;及び
    前記メモリに格納され、前記少なくとも1つのプロセッサによって実行可能に構成される少なくとも1つ以上のプログラムを含み、
    前記プログラムは、、
    前記イメージセンサを介して第1イメージデータを取得して、
    前記第1イメージデータにエフェクトを適用した第2イメージデータを表示する少なくとも1つのアイコンを画面に表示し、
    前記少なくとも1つのアイコンの選択に対する応答として、前記第1イメージデータに前記エフェクトを用いて前記画面に表示する電子装置。
JP2013236895A 2013-03-14 2013-11-15 ユーザ機器及びその動作方法 Active JP6505967B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0027590 2013-03-14
KR1020130027590A KR102063915B1 (ko) 2013-03-14 2013-03-14 사용자 기기 및 그 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019064211A Division JP6868659B2 (ja) 2013-03-14 2019-03-28 イメージ表示方法、及び、電子装置

Publications (2)

Publication Number Publication Date
JP2014179969A true JP2014179969A (ja) 2014-09-25
JP6505967B2 JP6505967B2 (ja) 2019-04-24

Family

ID=50287906

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013236895A Active JP6505967B2 (ja) 2013-03-14 2013-11-15 ユーザ機器及びその動作方法
JP2019064211A Active JP6868659B2 (ja) 2013-03-14 2019-03-28 イメージ表示方法、及び、電子装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019064211A Active JP6868659B2 (ja) 2013-03-14 2019-03-28 イメージ表示方法、及び、電子装置

Country Status (9)

Country Link
US (6) US9571736B2 (ja)
EP (3) EP2779630A3 (ja)
JP (2) JP6505967B2 (ja)
KR (1) KR102063915B1 (ja)
CN (2) CN109089044B (ja)
AU (1) AU2014201586B2 (ja)
ES (2) ES2833542T3 (ja)
RU (1) RU2666130C2 (ja)
WO (1) WO2014142604A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059984A (ja) * 2015-09-16 2017-03-23 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2021184273A (ja) * 2018-10-19 2021-12-02 スノー コーポレーション 複数のカメラパッケージで構成されたカメラアプリケーションを含むシステムおよびカメラ機能制御方法
WO2023021759A1 (ja) * 2021-08-17 2023-02-23 ソニーグループ株式会社 情報処理装置、情報処理方法

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015308B2 (en) * 2013-07-26 2018-07-03 Lg Electronics Inc. Mobile terminal and method of controlling the same
KR20150026393A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 이미지 처리 및 그 방법을 처리하는 전자장치
CN105847670B (zh) * 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
US9781393B2 (en) * 2015-03-27 2017-10-03 Olympus Corporation Imaging apparatus, control method of imaging apparatus, and non-transitory storage medium storing control program of imaging apparatus
JP2017059888A (ja) * 2015-09-14 2017-03-23 オリンパス株式会社 情報記録装置、情報記録方法及び情報記録プログラム
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
KR102630191B1 (ko) * 2016-08-18 2024-01-29 삼성전자 주식회사 전자 장치 및 전자 장치 제어 방법
US9954706B1 (en) * 2016-10-28 2018-04-24 L3 Technologies Inc. Outphased spatial combiner
US11222413B2 (en) * 2016-11-08 2022-01-11 Samsung Electronics Co., Ltd. Method for correcting image by device and device therefor
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
AU2018279787B2 (en) * 2017-06-04 2019-12-19 Apple Inc. User interface camera effects
US10742899B1 (en) 2017-08-30 2020-08-11 Snap Inc. Systems, devices, and methods for image enhancement
JP2019102889A (ja) * 2017-11-29 2019-06-24 株式会社デンソー カメラシステム
US10275689B1 (en) 2017-12-21 2019-04-30 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11500533B2 (en) * 2018-02-14 2022-11-15 Lg Electronics Inc. Mobile terminal for displaying a preview image to be captured by a camera and control method therefor
KR102499399B1 (ko) * 2018-03-20 2023-02-14 삼성전자주식회사 Isp 업데이트를 알리는 전자 장치 및 그 동작 방법
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
KR102597680B1 (ko) 2018-06-07 2023-11-03 삼성전자주식회사 맞춤형 화질 이미지를 제공하는 전자 장치 및 그 제어 방법
US10984399B2 (en) * 2018-07-31 2021-04-20 Snap Inc. Dynamically configurable social media platform
KR102558166B1 (ko) * 2018-08-08 2023-07-24 삼성전자주식회사 복수의 객체들을 포함하는 이미지를 보정하는 전자 장치 및 그 제어 방법
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
KR20200100918A (ko) 2019-02-19 2020-08-27 삼성전자주식회사 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법
KR102664688B1 (ko) * 2019-02-19 2024-05-10 삼성전자 주식회사 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
US11070717B2 (en) * 2019-04-23 2021-07-20 Adobe Inc. Context-aware image filtering
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11169675B1 (en) * 2019-06-28 2021-11-09 Snap Inc. Creator profile user interface
CN111064886B (zh) * 2019-12-19 2022-03-01 惠州Tcl移动通信有限公司 终端设备的拍摄方法、终端设备及存储介质
CN111093035B (zh) * 2019-12-31 2022-12-27 维沃移动通信有限公司 图像处理方法、电子设备及存储介质
US11451703B2 (en) * 2020-03-23 2022-09-20 Samsung Electronics Co.. Ltd. Method and system for customizing camera parameters
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
JP7551385B2 (ja) * 2020-07-31 2024-09-17 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
CN113747240B (zh) * 2021-09-10 2023-04-07 荣耀终端有限公司 视频处理方法、设备和存储介质
US20230316470A1 (en) * 2022-01-10 2023-10-05 Samsung Electronics Co., Ltd. Method for correcting image by device and device therefor
JP2023111610A (ja) * 2022-01-31 2023-08-10 キヤノンメディカルシステムズ株式会社 医用画像診断装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331181A (ja) * 1999-05-17 2000-11-30 Fuji Photo Film Co Ltd 画像処理方法
US20070081740A1 (en) * 2005-10-11 2007-04-12 Jean-Pierre Ciudad Image capture and manipulation
JP2009071666A (ja) * 2007-09-14 2009-04-02 Sony Corp 撮像装置、その制御方法およびプログラム
US20090199134A1 (en) * 2008-01-31 2009-08-06 Kabushiki Kaisha Toshiba Mobile communication apparatus
US20090319897A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Enhanced user interface for editing images
CN102196138A (zh) * 2010-03-16 2011-09-21 柯尼卡美能达商用科技株式会社 图像处理设备及其显示控制方法
JP2012124608A (ja) * 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ
US8214766B1 (en) * 2008-07-09 2012-07-03 Adobe Systems Incorporated Method and system for preview control for image adjustment
JP2012253449A (ja) * 2011-05-31 2012-12-20 Olympus Imaging Corp 撮像装置、撮像方法および撮像プログラム
JP2015517135A (ja) * 2012-03-06 2015-06-18 アップル インコーポレイテッド メディア編集アプリケーション用の扇形編出ユーザインタフェースコントロール

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3786242B2 (ja) * 1997-07-14 2006-06-14 富士写真フイルム株式会社 画像処理方法および装置、画像再生方法および装置並びにその方法に使用する画像確認装置
US20010043279A1 (en) * 2000-03-07 2001-11-22 Masahito Niikawa Digital camera
JP4511066B2 (ja) * 2001-03-12 2010-07-28 オリンパス株式会社 撮像装置
JP2003134520A (ja) * 2001-10-19 2003-05-09 Minolta Co Ltd デジタルカメラ
AU2003233558B8 (en) * 2003-05-16 2010-01-21 Microsoft Technology Licensing, Llc File system shell
JP4396332B2 (ja) * 2004-03-10 2010-01-13 セイコーエプソン株式会社 ディジタルカメラ
KR101063405B1 (ko) * 2004-06-29 2011-09-07 삼성전자주식회사 특수효과 처리 화면 분할 디스플레이 기능을 갖는 휴대용영상 기록/재생 장치 및 그 분할 디스플레이 방법
JP2006048537A (ja) 2004-08-06 2006-02-16 Canon Inc 印刷システム及び印刷処理方法
US7929796B2 (en) * 2004-09-07 2011-04-19 Nec Corporation Image processing system and method, and terminal and server used for the same
KR101058011B1 (ko) * 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
JP2006238076A (ja) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd 撮影装置
KR101156676B1 (ko) 2005-08-04 2012-06-14 삼성전자주식회사 디지털 영상 처리 방법
JP4288612B2 (ja) * 2005-09-14 2009-07-01 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4840848B2 (ja) * 2005-09-21 2011-12-21 ソニー株式会社 撮影装置、情報処理方法、並びにプログラム
JP4926494B2 (ja) 2006-02-20 2012-05-09 キヤノン株式会社 画像処理装置及び制御方法
JP2007316452A (ja) * 2006-05-26 2007-12-06 Omron Corp 観察装置および観察装置の画面表示方法
DE102006027025A1 (de) 2006-06-08 2007-12-13 Merck Patent Gmbh Silberweiße-Effektpigmente
JP4725452B2 (ja) * 2006-08-04 2011-07-13 株式会社ニコン デジタルカメラ及び画像処理プログラム
KR100816442B1 (ko) 2006-08-17 2008-03-27 에스케이 텔레콤주식회사 화상통화에 영상 효과 서비스를 제공하는 방법 및 시스템
KR100896711B1 (ko) * 2007-02-08 2009-05-11 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기의 탭을 통한 기능 실행방법
JP5083090B2 (ja) 2007-09-18 2012-11-28 ソニー株式会社 表示制御装置、撮像装置、表示制御方法およびプログラム
KR100924689B1 (ko) 2007-12-17 2009-11-03 한국전자통신연구원 모바일 기기의 이미지 변환 장치 및 방법
US8310594B2 (en) * 2008-07-22 2012-11-13 Samsung Electronics Co., Ltd. Method and system for picture-based user interface for adjusting picture display parameter settings of a display device
JP4534176B2 (ja) * 2008-07-22 2010-09-01 富士フイルム株式会社 電子カメラ
US8072505B2 (en) * 2008-07-23 2011-12-06 Victor Company Of Japan, Ltd. Imaging apparatus
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5412133B2 (ja) * 2009-02-20 2014-02-12 オリンパスイメージング株式会社 再生装置および再生方法
KR101595254B1 (ko) * 2009-02-20 2016-02-18 삼성전자주식회사 화이트 밸런스 조정 방법, 상기 방법을 기록한 기록 매체, 화이트 밸런스 조정 장치
CN102395947A (zh) * 2009-04-13 2012-03-28 日本电气株式会社 数据处理设备及其计算机程序和数据处理方法
US8806331B2 (en) 2009-07-20 2014-08-12 Interactive Memories, Inc. System and methods for creating and editing photo-based projects on a digital network
US8379130B2 (en) * 2009-08-07 2013-02-19 Qualcomm Incorporated Apparatus and method of processing images based on an adjusted value of an image processing parameter
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
JP5402409B2 (ja) * 2009-08-31 2014-01-29 ソニー株式会社 撮影条件設定装置、撮影条件設定方法及び撮影条件設定プログラム
JP5218353B2 (ja) * 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
JP5457217B2 (ja) * 2010-02-02 2014-04-02 オリンパスイメージング株式会社 カメラ
US8810691B2 (en) 2010-09-03 2014-08-19 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable recording medium
JP2012059061A (ja) * 2010-09-09 2012-03-22 Hitachi Solutions Ltd データ処理装置、データ処理方法及びプログラム
JP5748436B2 (ja) * 2010-09-10 2015-07-15 キヤノン株式会社 撮像装置及びその制御方法
JP5160604B2 (ja) 2010-09-14 2013-03-13 任天堂株式会社 表示制御プログラム、表示制御システム、表示制御装置、表示制御方法
KR101657122B1 (ko) * 2010-09-15 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101700366B1 (ko) * 2010-10-01 2017-02-13 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US8687091B2 (en) * 2010-11-03 2014-04-01 Canon Kabushiki Kaisha Image capturing systems and methods utilizing customizable look management
JP5678631B2 (ja) * 2010-12-10 2015-03-04 ソニー株式会社 電子機器、電子機器の制御方法およびプログラム
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US8717381B2 (en) * 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
JP5136669B2 (ja) * 2011-03-18 2013-02-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR20120119794A (ko) * 2011-04-22 2012-10-31 삼성전자주식회사 특수 효과들을 사용한 촬영 방법 및 장치
JP2012249175A (ja) 2011-05-30 2012-12-13 Olympus Imaging Corp 撮像装置、表示方法およびプログラム
US9019400B2 (en) * 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium
JP5806512B2 (ja) * 2011-05-31 2015-11-10 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
JP5855862B2 (ja) * 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP2013021548A (ja) * 2011-07-12 2013-01-31 Olympus Imaging Corp 撮像装置、画像再生装置及びプログラム
JPWO2013039025A1 (ja) 2011-09-16 2015-03-26 Necカシオモバイルコミュニケーションズ株式会社 情報管理編集機能を備えた情報処理装置
KR101817653B1 (ko) * 2011-09-30 2018-01-12 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
US8957982B2 (en) * 2011-10-04 2015-02-17 Olympus Imaging Corp. Imaging device and imaging method
JP5872834B2 (ja) * 2011-10-06 2016-03-01 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
US9094603B2 (en) 2011-10-07 2015-07-28 Panasonic Intellectual Property Corporation Of America Image pickup device and image pickup method
JP5936183B2 (ja) * 2012-02-07 2016-06-15 オリンパス株式会社 撮影機器
JP5970937B2 (ja) * 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
JP6455147B2 (ja) * 2012-05-22 2019-01-23 株式会社ニコン 電子カメラ、画像表示装置および画像表示プログラム
JP6004756B2 (ja) * 2012-06-07 2016-10-12 キヤノン株式会社 表示制御装置及びその制御方法
JP5956836B2 (ja) * 2012-06-08 2016-07-27 キヤノン株式会社 撮像装置および表示制御方法、プログラム
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
JP5977132B2 (ja) 2012-09-28 2016-08-24 富士ゼロックス株式会社 表示制御装置、画像表示装置、およびプログラム
CN103777852B (zh) * 2012-10-18 2018-10-02 腾讯科技(深圳)有限公司 一种获取图像的方法、装置
KR101890137B1 (ko) * 2012-10-25 2018-08-21 삼성전자주식회사 촬영 장치 및 제어 방법
JP6270325B2 (ja) 2013-03-15 2018-01-31 キヤノン株式会社 情報処理装置およびその制御方法
KR102092330B1 (ko) * 2013-06-20 2020-03-23 삼성전자주식회사 촬영 제어 방법 및 그 전자 장치
US20150227166A1 (en) * 2014-02-13 2015-08-13 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331181A (ja) * 1999-05-17 2000-11-30 Fuji Photo Film Co Ltd 画像処理方法
US20070081740A1 (en) * 2005-10-11 2007-04-12 Jean-Pierre Ciudad Image capture and manipulation
JP2009071666A (ja) * 2007-09-14 2009-04-02 Sony Corp 撮像装置、その制御方法およびプログラム
US20090199134A1 (en) * 2008-01-31 2009-08-06 Kabushiki Kaisha Toshiba Mobile communication apparatus
JP2009181501A (ja) * 2008-01-31 2009-08-13 Toshiba Corp 移動通信機器
US20090319897A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Enhanced user interface for editing images
US8214766B1 (en) * 2008-07-09 2012-07-03 Adobe Systems Incorporated Method and system for preview control for image adjustment
CN102196138A (zh) * 2010-03-16 2011-09-21 柯尼卡美能达商用科技株式会社 图像处理设备及其显示控制方法
JP2011193405A (ja) * 2010-03-16 2011-09-29 Konica Minolta Business Technologies Inc 画像処理装置及び同装置の表示制御方法並びに表示制御プログラム
US20110231800A1 (en) * 2010-03-16 2011-09-22 Konica Minolta Business Technologies, Inc. Image processing apparatus, display control method therefor, and recording medium
JP2012124608A (ja) * 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ
JP2012253449A (ja) * 2011-05-31 2012-12-20 Olympus Imaging Corp 撮像装置、撮像方法および撮像プログラム
JP2015517135A (ja) * 2012-03-06 2015-06-18 アップル インコーポレイテッド メディア編集アプリケーション用の扇形編出ユーザインタフェースコントロール

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059984A (ja) * 2015-09-16 2017-03-23 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2021184273A (ja) * 2018-10-19 2021-12-02 スノー コーポレーション 複数のカメラパッケージで構成されたカメラアプリケーションを含むシステムおよびカメラ機能制御方法
JP7483663B2 (ja) 2018-10-19 2024-05-15 スノー コーポレーション 複数のカメラパッケージで構成されたカメラアプリケーションを含むシステムおよびカメラ機能制御方法
WO2023021759A1 (ja) * 2021-08-17 2023-02-23 ソニーグループ株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
RU2015138989A (ru) 2017-03-16
EP3512192A1 (en) 2019-07-17
US20200112689A1 (en) 2020-04-09
US20190260946A1 (en) 2019-08-22
US10841510B2 (en) 2020-11-17
US10841511B1 (en) 2020-11-17
US20140267867A1 (en) 2014-09-18
WO2014142604A1 (en) 2014-09-18
CN104050621B (zh) 2018-10-12
CN109089044A (zh) 2018-12-25
RU2666130C2 (ru) 2018-09-06
US20170244907A1 (en) 2017-08-24
US10284788B2 (en) 2019-05-07
AU2014201586B2 (en) 2019-07-11
EP3771200A1 (en) 2021-01-27
JP6505967B2 (ja) 2019-04-24
ES2833542T3 (es) 2021-06-15
EP2779630A3 (en) 2014-10-22
US9571736B2 (en) 2017-02-14
US10506176B2 (en) 2019-12-10
CN109089044B (zh) 2022-03-11
AU2014201586A1 (en) 2014-10-02
US20200344424A1 (en) 2020-10-29
JP6868659B2 (ja) 2021-05-12
EP2779630A2 (en) 2014-09-17
US20170085809A1 (en) 2017-03-23
KR102063915B1 (ko) 2020-01-08
CN104050621A (zh) 2014-09-17
EP3771200B1 (en) 2022-04-27
KR20140112915A (ko) 2014-09-24
EP3512192B1 (en) 2020-09-16
ES2925457T3 (es) 2022-10-18
US9674462B2 (en) 2017-06-06
JP2019109944A (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
JP6868659B2 (ja) イメージ表示方法、及び、電子装置
KR102113272B1 (ko) 전자장치에서 복사/붙여넣기 방법 및 장치
RU2704111C1 (ru) Способ отображения множества окон приложений посредством мобильного терминала и мобильный терминал
KR101215230B1 (ko) 다중-컨텍스트 그래픽 처리
US20220206645A1 (en) Management of screen content capture
US20120050332A1 (en) Methods and apparatuses for facilitating content navigation
KR102039688B1 (ko) 사용자 기기 및 그 동작 방법
EP2677501A2 (en) Apparatus and method for changing images in electronic device
CN112230914B (zh) 小程序的制作方法、装置、终端及存储介质
JP2022520263A (ja) ミニプログラムのデータバインディング方法、装置、デバイス及びコンピュータプログラム
KR102102959B1 (ko) 사용자 기기 및 그 동작 방법
KR102109915B1 (ko) 사용자 기기 및 그 동작 방법
CN111125571B (zh) 图片显示方法及装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190328

R150 Certificate of patent or registration of utility model

Ref document number: 6505967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250