JP2021508890A - 画像のパンニング方法 - Google Patents

画像のパンニング方法 Download PDF

Info

Publication number
JP2021508890A
JP2021508890A JP2020536663A JP2020536663A JP2021508890A JP 2021508890 A JP2021508890 A JP 2021508890A JP 2020536663 A JP2020536663 A JP 2020536663A JP 2020536663 A JP2020536663 A JP 2020536663A JP 2021508890 A JP2021508890 A JP 2021508890A
Authority
JP
Japan
Prior art keywords
individual
image
screen
drag
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020536663A
Other languages
English (en)
Other versions
JP2021508890A5 (ja
JP6995208B2 (ja
Inventor
ジョンファン パク、
ジョンファン パク、
ヒキョン カン、
ヒキョン カン、
ボンサン ク、
ボンサン ク、
Original Assignee
ピージェー ファクトリー カンパニー リミテッド
ピージェー ファクトリー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピージェー ファクトリー カンパニー リミテッド, ピージェー ファクトリー カンパニー リミテッド filed Critical ピージェー ファクトリー カンパニー リミテッド
Publication of JP2021508890A publication Critical patent/JP2021508890A/ja
Publication of JP2021508890A5 publication Critical patent/JP2021508890A5/ja
Application granted granted Critical
Publication of JP6995208B2 publication Critical patent/JP6995208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】本発明は、電子デバイスの画面に表示した第1の個体の上に第2の個体を配置させるために、電子装置によって実行される方法に関する。
【解決手段】前記第2の個体を前記第1の個体上で第1の方向に移動させるドラッグ応答し、前記画面上に表示した前記第1の個体を前記第1の方向とは反対の第2の方向に移動させるステップ、及び、前記第2の個体に対するドラッグが終了すると、前記第1の個体上の前記ドラッグの終了位置に前記第2の個体を配置させるステップを含み、前記第1の個体を前記第2の方向に移動させるステップは、前記第1の個体の終端が、前記画面の終端に到達しても、前記第1の方向へのドラッグに応じて前記第1の個体を前記第2の方向に継続的に移動させることにより、前記第2の個体を前記第1の個体の終端近くまで、または、前記第1の個体の終端を超えて前記第1の個体の外部領域に移動させるドラッグを許容する。
【選択図】図11

Description

本発明は、画像のパンニング方法に関する。具体的には、本発明は、マルチ深度画像の生成及び編集時にメイン画像に挿入画像を容易に挿入するための方法に関する。
この部分に記述した内容は、単に本発明についての背景情報を提供するに留まり、従来の技術を構成するものではない。
電子デバイスを用いて画像ファイルを開いたときに、画像ファイルの特定の部分についての詳細な情報または拡大した画像が要求されることがある。例えば、自動車の画像の場合、ヘッドライト、車輪などの特定の部分についてのより詳しい画像が要求される。
スマートフォンなどの携帯用電子デバイスの場合、画面が小さいので、全体の画像から特定の部分の詳しい画像を確認するのは難しい。特定の部分の詳しい画像を確認するために、該当部分の画像を拡大する方法を利用してもよいが、これは単にピクセルのサイズを増やすに過ぎず、満足のいく解像度を得ることができず、さらに、既存の画像を単純に拡大すること以外の追加の情報を得ることができないという問題がある。
このような問題を解決するために、本発明者は、基本となる一つの画像(以下、「メイン画像」)に追加の情報を提供する他の画像(以下、「挿入画像」)の挿入が可能な新しいフォーマットの画像(以下、「マルチ深度画像」)及びその生成方法についての発明を韓国特許第10-1501028号(2015年03月04日付にて登録)に登録したことがある。
同文献は、マルチ深度画像の定義と、マルチ深度画像の作成及び編集のためのユーザインタフェースを開示している。本発明は、同発明の後継発明として、マルチ深度画像の作成及び編集時にメイン画像に挿入画像を容易に挿入するための方法についてである。
本発明が解決しようとする技術的課題は、マルチ深度画像の作成及び編集時にメイン画像に挿入画像を容易に挿入するための方法を提供することである。
本発明が解決しようとする技術的課題は、前述した技術的課題に限定せず、言及していない他の技術的課題が、以下の記載から、通常の技術者に自明に導き出される。
本発明の一実施例によると、電子デバイスの画面に表示した第1の個体上に第2の個体を配置させるために、電子装置によって実行される方法において、前記第2の個体を前記第1の個体上で第1の方向に移動させるドラッグに応答し、前記画面上に表示した前記第1の個体を前記第1の方向とは反対の第2の方向に移動させるステップ、及び、前記第2の個体に対するドラッグが終了すると、前記第1の個体上の前記ドラッグの終了位置に前記第2の個体を配置させるステップを含み、前記第1の個体を前記第2の方向に移動させるステップは、前記第1の個体の終端が、前記画面の終端に到達しても、前記第1の方向へのドラッグに応じて前記第1の個体を前記第2の方向に継続的に移動させることにより、前記第2の個体を前記第1の個体の終端近くまで、または、前記第1の個体の終端を超え、前記第1の個体の外部領域に移動させるドラッグを許容する方法を提供する。
本発明の一実施例によると、メイン画像を挿入画像のドラッグ方向とは反対の方向に移動させることで、ユーザーが容易にメイン画像に挿入画像を挿入することができる。
マルチ深度画像を説明するための概念図である。 画像ビューアで、図1のマルチ深度画像が実際に画面に表示される方式を例示した図である。 本発明の一実施例に係る方法であって、第2の個体の選択に応じた画面の変化を例示した図である。 本発明の一実施例に係る方法であって、第2の個体のドラッグによる画面の変化を例示した図である。 本発明の一実施例に係る方法であって、第2の個体が外部領域にドラッグした状態で、追加の機能を実行するための方法を例示した図である。 本発明の一実施例に係る方法であって、第2の個体の選択のためのユーザー入力の位置が画面の中央ではない場合の第2の個体の選択に応じた画面の変化を例示した図である。 本発明の一実施例に係る方法であって、第2の個体が既に親画像に挿入した画像である場合、第2の個体の選択に応じた画面の変化を例示した図である。 本発明の一実施形態による方法として、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に、第2の個体の選択に応じた画面の変化を例示した図である。 本発明の一実施形態による方法として、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に、第2の個体のドラッグによる第1の個体は、親画像、及びウィンドウの移動を例示した図である。 本発明の一実施形態による方法として、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に、第2の個体のウィンドウの外にドラッグしたとき、第1の個体、親画像、及びウィンドウの移動を例示した図である。 本発明の一実施形態に係る画像のパンニング方法を例示したフローチャートである。
以下、本発明の一実施例を例示的な図面を介して詳しく説明する。各図面の構成要素に参照符号を付加するにおいて同一の構成要素に対しては、たとえ他の図面上に表示されていても、可能な限り同一の符号を使用していることに留意しなければならない。また、本発明の一実施例を説明するにあたり、関連する公知の構成または機能についての具体的な説明が本発明の要旨を曖昧にすると判断した場合には、それについての詳しい説明を省く。
本発明の一実施例の構成要素を説明するにあたり、第1、第2、i)、ii)、a)、b)などの符合を用いる場合がある。このような符合は、その構成要素を他の構成要素と区別するだけで、その符合によってその構成要素の本質、順番、順序などが限定されるものではない。本明細書でどの部分がどのような構成要素を「含む」または「備える」とするとき、これは明示的に逆になる記載がない限り、該当部分が他の構成要素を付加することを排除するものではなく、他の構成要素をさらに含み得ることを意味する。「〜部」、「モジュール」などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これは「ハードウェア」、「ソフトウェア」または「ハードウェアとソフトウェアの組み合わせ」で具現してよい。
1.マルチ深度画像の構造
図1は、マルチ深度画像の構造を説明するための概念図である。
図1は、画像ビューアでマルチ深度画像を実際に表示した画面ではなく、マルチ深度画像の構造を表現した概念図である。
図1に示したように、マルチ深度画像は、複数個の画像がツリー構造でつながる構造である。ツリー構造にて最上位に位置する画像は、メイン画像である。図1では、自動車の全体的な画像をメイン画像として例示した。
メイン画像以外の画像は挿入画像である。ツリー構造でルートにはメイン画像が配置し、一つ以上の挿入画像は、互いに親、兄弟または子の関係を有してメイン画像の下につながる。
メイン画像は、0の深さを有し、メイン画像に直接挿入した挿入画像は1の深さを有する。例えば、自動車全体を表示した画像(以下、「自動車全体画像」)にヘッドライトを表示した画像(以下、「ヘッドライト画像」)及び車輪を表示した画像(以下、「車輪画像」)を挿入することができ、この場合ヘッドライト画像及び車輪画像は1の深さを有する。
挿入画像に挿入した他の挿入画像は2以上の深さを有する。例えば1の深さを有するヘッドライト画像に電球を表示した画像(以下、「電球画像」)及び反射鏡を表示した画像(以下、「反射鏡画像」)を挿入することができ、この場合、電球画像及び反射鏡画像は2の深さを有する。また、1の深さを有する車輪画像にタイヤホイールを表示した画像(以下、「タイヤホイール画像」)及びタイヤを表示した画像(以下、「タイヤ画像」)を挿入することができ、この場合、タイヤホイール画像及びタイヤ画像は2の深さを有する。
このような方式で継続して画像を挿入することができる。例えば電球画像、反射鏡画像、タイヤホイール画像、またはタイヤ画像に別の画像を挿入することができ、このとき挿入される画像は、3の深さを有するようになる。
このように、ツリー構造でつながった複数の画像は、画像間のつながり関係に関する属性と一緒に一つのファイルとして保存され、マルチデプス画像を構成することになる。
2.マルチ深度画像の表示
図1に自動車ノードの下にヘッドライトノード及び車輪ノードが配置し、ヘッドライトノードの下に電球ノード及び反射板ノードが位置し、車輪ノードの下にタイヤホイールノード及びタイヤノードが位置する。
マルチ深度画像は、図1に例示したツリー構造で親ノードの個体に子ノードの個体を挿入した形態の画像フォーマットである。親ノードの個体に子ノードの個体が挿入されるときに挿入される個体は、一般的に画像である。しかし、画像の他にも動画、テキスト、音声、その他のファイルへのリンク、インターネットアドレスのリンク、ブックマークなど、さまざまな個体が子ノードの個体として親ノードの個体に挿入することができる。ただし、以下では説明の便宜上、親ノードの個体及び子ノードの個体がすべて画像である場合を例に挙げて説明する。
親ノードの個体及び子ノードの個体が画像としたときに、図1に例示したツリー構造で親ノードの画像(以下、「親画像」)の適切した位置に子ノードの画像(以下、「子画像」)を挿入することにより、マルチ深度画像を生成することができる。親画像の適切な位置に子画像を挿入する方法として、親画像と子画像を比較した後、親画像にて子画像の特徴を発見した位置に子画像を挿入する方法を使用することができる。
図2は、画像ビューアにて、図1のマルチ深度画像は、実際に画面に表示した状態を例示した図である。
画像ビューアで図2のように車に対するマルチ深度画像200を構成するすべての画像が一つの画面に表示してもよく、自動車に対するマルチ深度画像200を構成する自動車全体画像210、ヘッドライト画像220、電球画像221、反射鏡画像222、車輪画像230、タイヤホイール画像231、またはタイヤ画像232が単独で表示されてもよい。それぞれの画像が単独で表示される場合、他の画像が挿入されていることを示すアイコン(図2では
Figure 2021508890
状アイコン)をクリックまたはタッチすると、挿入した画像を表示することができる。
図2に示したように、マルチ深度画像は、自動車全体画像210からヘッドライト画像220と類似した特徴が発見された位置にヘッドライト画像220を挿入し、自動車全体画像210にて車輪画像230と類似した特徴が発見された位置に車輪画像230を挿入し、ヘッドライト画像220で電球画像221と類似した特徴が発見された位置に電球画像221を挿入し、ヘッドライト画像220で反射鏡画像222と類似した特徴が発見された位置に反射鏡画像222を挿入し、車輪画像230からタイヤホイール画像231と類似した特徴が発見された位置にタイヤホイール画像231を挿入し、車輪画像230でタイヤ画像232と類似した特徴が発見された位置にタイヤ画像232を挿入した形態の画像である。
ただし、必ず親画像で子画像の特徴が発見された位置に子画像を挿入しなければならないとは限らず、親画像の任意の位置に子画像を挿入した構造であれば、マルチ深度画像になる。
3.基本インターフェース
マルチ深度画像にて、ルートノードの画像が「メイン画像」であり、メイン画像以外のすべての画像が「挿入画像」である。メイン画像に挿入画像を挿入するためのユーザーインターフェイスは、次のように具現する。
1.ユーザーからメイン画像を選択する入力を受信する。
2.ユーザーから挿入画像を選択する入力を受信する。
3.メイン画像及び小さいサイズでアイコン化した挿入画像を画面に表示する。
4.ユーザーからアイコン化した挿入画像をドラッグする入力を受信する。
5.ユーザーからドラッグ入力の終了を受信する。
6.タッチ入力が終了した位置に挿入画像を挿入する。
挿入画像に他の挿入画像を挿入するためのユーザーインターフェイスは、次のように具現する。
1.ユーザーからメイン画像を選択する入力を受信する。
2.ユーザーから挿入画像を選択する入力を受信する。
3.メイン画像及び小さいサイズでアイコン化した挿入画像を画面に表示する。
4.ユーザーからアイコン化した挿入画像をドラッグする入力を受信する。
5.アイコン化した挿入画像が既存の挿入画像を挿入した位置にドラッグすると、メイン画像の代わりに、既存の挿入画像を画面に表示する。
6.ユーザーからアイコン化した挿入画像をドラッグする入力を受信する。
7.ユーザからドラッグ入力の終了を受信する。
8.タッチ入力が終了した位置に挿入画像を挿入する。既存の挿入画像の深さがNである場合、新たに挿入した画像の深さは、N+1になる。
以上のユーザーインターフェースによると、マルチ深度画像の作成及び編集時にワンタッチ(one touch)またはワンクリック(one click)で、メイン画像に挿入画像を挿入することができる。
しかし、スマートフォン、タブレットなどで提供するタッチインターフェイスは、指を使用するので、指の大きさにより、メイン画像の奥まった位置に挿入画像を挿入することが容易ではない。また、スマートフォンを握った状態で親指などの短い指を利用して挿入する画像をドラッグすると、ドラッグ可能な範囲が短いという問題がある。
以下、本発明の一実施例は、マルチ深度画像の作成及び編集時にメイン画像を挿入画像のドラッグ方向と反対方向に移動させることで、メイン画像に挿入画像を容易に挿入することができる方法を提供する。
新しい画像をメイン画像に挿入しようとする場合に、親画像は、メイン画像(深さ0)になり、第2の個体は、新しい画像(深さ1)になる。新しい画像を深さがNである既存の挿入画像を挿入しようとする場合に、親画像は、既存の挿入画像(深さN)になり、第2の個体は、新しい画像(深さN+1)になる。
以下、本明細書で、挿入する個体は「第2の個体」とし、第2の個体を挿入しようとする対象の画像は、「親画像」とし、親画像の全部または一部を画面に表示した領域は、「第1の個体」という。第2の個体は、一般的に画像である。しかし、画像の他にも動画、テキスト、音声、その他のファイルへのリンク、インターネットアドレスのリンク、ブックマークなど、さまざまな個体が第2の個体になってよい。以下では、第2の個体が画像である場合を例に挙げて説明する。
4.第1の実施例
図3は、本発明の一実施例に係る方法であって、第2の個体の選択に応じた画面の変化を例示した図である。
図3(a)は、電子デバイスが、ユーザーから、親画像に挿入する第2の個体を選択する入力を受信する画面を示した図である。具体的に、図3(a)は、第2の個体が画面に表示した状態で、第2の個体の選択のためのユーザー入力が画面中央で受信した場合を例示している。
第2の個体の選択のためのユーザ入力は、マウスをクリックすることであってよい。または、タッチスクリーンをタッチすることであってよい。または、マウスまたはタッチスクリーンを長押し(long press)することであってよい。
図3(b)は、電子デバイスが、ユーザーから、親画像に挿入する第2の個体を選択する入力を受信した後の画面の変化を示した図である。
第2の個体が選択されると、第1の個体(親画像の全部または一部が画面に表示された領域)とアイコン化した第2の個体が画面に表示される。
アイコン化した第2の個体を表示した位置は、第2の個体の選択のためのユーザ入力の位置であってよい。図3(a)にて、第2の個体の選択のためのユーザー入力が画面中央で入力されたので、図3(b)にて、アイコン化した第2の個体は画面中央に表示される。アイコン化した第2の個体から突き出た部分は、第2の個体が第1の個体上に挿入される位置を示す。
第2の個体の選択のためのユーザー入力が画面中央で入力された場合に、親画像の中心が画面の中央にくるようにして第1の個体を表示してよい。第1の個体は、親画像のサイズのまま表示されてもよく、画面に合わせて拡大または縮小して表示されてもよく、ユーザーが設定した割合どおり拡大または縮小して表示されてもよい。
図4は、本発明の一実施例に係る方法であって、第2の個体のドラッグによる画面の変化を例示した図である。
図4(a)は、電子デバイスが、ユーザから、第2の個体を左上方向にドラッグする入力を受信した後の画面の変化を示した図である。図4(a)に示すように、電子デバイスは、ユーザからの、第2の個体を左上方向にドラッグする入力を受信すると、第1の個体は、右下の方向に移動する。
図4(b)は、電子デバイスが、ユーザから、第2の個体を右下の方向にドラッグする入力を受信した後の画面の変化を示した図である。図4(b)に示すように、電子デバイスは、ユーザからの、第2の個体を右下の方向にドラッグする入力を受信すると、第1の個体は、左上方向に移動する。
図4(a)および図4(b)に示すように、電子デバイスは、ユーザからの、第2の個体をドラッグする入力を受信すると、ドラッグ方向とは反対の方向に第1の個体が移動する。第1の個体の移動距離は、第2の個体のドラッグ距離によって決定される。具体的には、第1の個体の移動距離は、第2の個体のドラッグ距離のk倍(kは正の実数)である。kの値は、親画像のサイズ、親画像の拡大如何、親画像の中から現在の画面に表示された領域などによって決定される。ちなみに、図4(a)および図4(b)は、第2の個体のドラッグ距離と、第1の個体の移動距離が同一である場合を例に挙げて説明している。
一方、図4(a)および図4(b)に示すように、第1の個体の移動に応じて画面に第1の個体の終端を脱した外部領域を表示してよい。第1の個体の終端を脱した外部領域は、灰色背景、黒色背景などに表示してよい。
本発明の一実施例によると、第1の個体が第2の個体のドラッグ方向とは反対の方向に移動し、第1の個体の終端を脱した外部領域まで、画面に表示されるので、ユーザーは、親画像の奥まった位置に第2の個体を簡単に挿入することができる。
図4(c)は、電子デバイスがユーザーからドラッグの終了を受信したときの画面の変化を示したものである。図4(c)に示すように、ドラッグが終了すると、第1の個体上でドラッグが終了した位置に第2の個体が配置される。掲示する動作は、第1の個体上でドラッグが終了した位置に第2の個体を挿入する動作を含んでよい。
個体の挿入が完了すると、電子デバイスは、画面をリフレッシュ(refresh)することができる。リフレッシュは、第2の個体のドラッグ前の、第1の個体が表示されていたのと同じ状態で、第1の個体を表示し、第1の個体に挿入した第2の個体を第1の個体上で、特定のアイコンで表示するものであってよい。第1の個体上で第2の個体を挿入した位置を示すアイコンは
Figure 2021508890
状アイコンであってよい。
図5は、本発明の一実施例に係る方法であって、第2の個体が外部領域にドラッグした状態で、追加の機能を実行するための方法を例示した図である。
電子デバイスは、ユーザからの、第2の個体をドラッグする入力を受信すると、第2の個体のドラッグ方向とは反対の方向に第1の個体が移動する。第2の個体のドラッグ方向と反対の方向に第1の個体が移動しながら、第1の個体の終端を脱した外部領域が画面に表示される。
図5(a)は、第2の個体が第1の個体の終端を脱した外部領域にドラッグした状態を示した図である。図5(a)に示すように、第1の個体の終端を脱した外部領域に第2の個体をドラッグすることが許容される。外部領域へのドラッグは、第2の個体を第1の個体の挿入する場所に位置させるためのドラッグではなく、追加の機能を実行するためのドラッグである。第2の個体が外部領域にドラッグした状態では、次のような方法で追加機能を実行させることができる。
図5(b)は、外部領域にある第2の個体を左方向にドラッグするユーザ入力を受信している状態を示した図である。図5(b)に示すように、外部領域にある第2の個体が左方向にドラッグすると、予め設定した機能を実行するようにすることができる。または、第1の個体の終端と左方向にドラッグした第2の個体の離間距離に応じて一つ以上の機能を選択的に実行するようにすることができる。
図5(b)の場合とは逆に、第2の個体が右に継続してドラッグされ、第1の個体が左に継続して移動し、その結果、画面の右側に外部領域が表示され、第2の個体が外部領域に移動したと仮定する。この状態で、外部領域にある第2の個体が右方向にドラッグすると、予め設定した機能が実行されるようにすることができる。または、第1の個体の終端と右方向にドラッグした第2の個体の離間距離に応じて一つ以上の機能を選択的に実行するようにすることができる。
一方、第2の個体が上に継続してドラッグされ、第1の個体が下に継続して移動し、その結果、画面の上方に外部領域が表示され、第2の個体が外部領域に移動したと仮定しよう。この状態で、外部領域にある第2の個体を上方向にドラッグすると、予め設定した機能が実行されるようにすることができる。または、第1の個体の終端と上方向にドラッグした第2の個体の離間距離に応じて一つ以上の機能を選択的に実行するようにすることができる。
一方、第2の個体が下に継続してドラッグされ、第1の個体が上方に継続して移動し、その結果、画面の下方に外部領域が表示され、第2の個体が外部領域に移動したと仮定しよう。この状態で、外部領域にある第2の個体を下方向にドラッグすると、予め設定した機能が実行されるようにすることができる。または、第1の個体の終端と下方向にドラッグした第2の個体の離間距離に応じて一つ以上の機能を選択的に実行するようにすることができる。
図5(c)は、外部領域にある第2の個体をドラッグしてジェスチャーを入力するユーザー入力を受信している状態を示した図である。図4(c)に示すように、外部領域にある第2の個体をドラッグしてジェスチャーが入力されると、ジェスチャーの種類に応じて予め設定した機能が実行されるようにすることができる。
第2の個体が外部領域にある状態で、ジェスチャー入力以外の様々なユーザー入力を受信して予め設定した機能が実行されるようにすることができる。例えば第2の個体が外部領域にある状態で、ユーザーが音声で命令を下せば、ユーザーの音声コマンドを解析して、音声コマンドに基づいて予め設定した機能が実行されるようにすることができる。
第2の個体が外部領域にある状態で、電子デバイスが第2の個体を左、右、上、下にドラッグするユーザ入力を受信したり、ユーザージェスチャー、音声などによるユーザーイベントを受信したときに実行される追加機能は、以下の機能であってよい。
追加機能は、親画像を変更する機能である。親画像を変更しようとするとき、初期画面に戻って親画像を選択し、第2の個体を再度選択することは煩わしい。したがって、第2の個体の選択を維持した状態で、親画像を変更する必要があり、このような機能を外部領域でのドラッグまたはユーザーイベントを使用して実行することができる。
追加機能は、ページディテイルリン(page detailing)機能である。ページディテイルリンは、ツリー構造上で、親画像と同じレベルで、親画像についての追加情報を挿入する機能である。親画像と同じレベルに挿入される追加情報は、画像、ビデオ、テキスト、音声、その他のファイルへのリンク、インターネットアドレスのリンクURLなどであってよい。
追加機能は、スタッキング(stacking)機能であってよい。スタッキングは、挿入する個体を一方の画面に挟んで積んでおく(stacking)機能を意味する。スタッキング機能を用いて、アイコン化されて小さくなった個体を画面の特定の領域、例えば画面の右側または左側の隅の領域に挟んでおけば、挟まれた個体(stacked object)は、親画像から独立して常に画面の特定の領域に表示される。スタッキング機能を利用すれば、一つ以上の個体を親画像に簡単に挿入することができる。
そのほか、ポインタの削除、ポインタのキャンセル、前の段階に戻り、マルチ深度画像のツリー構造を示すナビゲーションマップの表示、挿入過程のキャンセル、挿入する個体の変更、親画像に挿入したすべての個体の削除などのさまざまな機能が追加機能として具現される。
図6は、本発明の一実施例に係る方法であって、第2の個体の選択のためのユーザ入力の位置が画面の中央ではない場合の第2の個体の選択に応じた画面の変化を例示した図である。
図6(a)は、電子デバイスがユーザーから親画像に挿入する第2の個体を選択する入力を受信する画面を示した図である。図3(a)において、第2の個体の選択のためのユーザ入力の位置が画面の中央であったのに対し、図6(a)では、第2の個体の選択のためのユーザ入力の位置が画面の左上である。
図6(b)は、電子デバイスが、ユーザーから、親画像に挿入する第2の個体を選択する入力を受信した後の画面の変化を示した図である。
第2の個体が選択されると、第1の個体とアイコン化した第2の個体が画面に表示される。
アイコン化した第2の個体を表示した位置は、第2の個体の選択のためのユーザ入力の位置であってよい。図6(a)で第2の個体の選択のためのユーザー入力が画面の左上であることから、図6(b)でアイコン化した第2の個体は、画面の左上に表示される。
第2の個体の選択のためのユーザー入力が画面の左上に入力された場合に、第1の個体が画面中央から画面の左上に向かう方向とは反対の方向に移動した位置に表示される。ユーザーが親画像の左上に第2の個体を挿入すると予想し、第1の個体を、あらかじめ、その逆方向に移動させて表示するものである。このとき、第1の個体の移動方向及び距離は図4で説明したのと同じ方式で決定する。
図7は、本発明の一実施例に係る方法であって、第2の個体が既に親画像に挿入した画像である場合、第2の個体の選択に応じた画面の変化を例示した図である。
図7(a)は、図4(c)でのように、親画像に既に挿入した第2の個体を指で選択することを示している。図7(b)は、親画像に既に挿入した第2の個体を選択したときの画面の変化を示している。
第2の個体が選択されると、第1の個体とアイコン化した第2の個体が画面に表示される。
アイコン化した第2の個体を表示した位置は、第2の個体の選択のためのユーザ入力の位置である。
第2の個体は、親画像の特定の位置に挿入した状態であるため、アイコン化した第2の個体は、第1の個体の挿入した位置に表示しなければならない。このために、第2の個体は、第2の個体の選択のためのユーザ入力の位置に表示し、第1の個体は、第2の個体を配置した位置を基準に移動させて表示する。例えば、画面の中央から第2の個体が離間した方向の逆方向に第1の個体を移動させて表示する。図7(a)にて、第2の個体Bを挿入した位置は、画面の中央から右下の方向に離間しているので、第1の個体Aは、左上方向に移動して画面に表示される。
5.第2の実施例
図8ないし10は、画面に入らないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に適用される方法である。図8ないし10は、親画像が360°画像、VR画像、パノラマ画像等である場合に特に有用な方法である。
図8は、本発明の一実施形態による方法として、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に、第2の個体の選択に応じた画面の変化を例示した図である。
図8(a)は、電子デバイスがユーザーから親画像に挿入する第2の個体を選択する入力を受信する画面を示した図である。図8(a)は、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を選択することと仮定する。
図8(b)は、電子デバイスがユーザーから親画像に挿入する第2の個体を選択する入力を受信した後の画面の変化を示した図である。
第2の個体が選択されると、第1の個体とアイコン化した第2の個体が画面に表示される。
アイコン化した第2の個体を表示した位置は、第2の個体の選択のためのユーザ入力の位置であってよい。図8(a)にて、第2の個体の選択のためのユーザー入力が画面中央で入力したので、図8(b)でアイコン化した第2の個体は、画面中央に表示される。
第2の個体の選択のためのユーザー入力が画面中央で入力された場合に、親画像の中心が画面の中央にくるようにして第1の個体を表示する。画面に入らないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態であるため、第1の個体は、画面いっぱいの状態になる。
某画像で一部の領域は、元の色のままで表示し、他の領域は、元の色より暗く表示することができる。親画像が元の色のままで表示される領域を「ウィンドウ」という。ウィンドウのサイズは、画面の大きさと同じに設定することができる。ただし、これに限定せず、ウィンドウのサイズが画面よりも大きくてもよく小さくてもよい。
某画像でウィンドウ内にある領域は、親画像で現在編集可能な領域、すなわち第2の個体を挿入しようとする領域を視覚的に強調するためのものであり、ウィンドウの外にある領域は、まだ該当領域が編集対象として入っていないことを示すためのものである。
ウィンドウは、編集可能領域を視覚的に強調するためのものなので、さまざまな方法でウィンドウを表示することができる。例えば、親画像を暗く表示せずにウィンドウを長方形のアウトラインだけを表示することもできる。
図9は、本発明の一実施形態による方法として、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に、第2の個体のドラッグによる第1の個体、親画像、及びウィンドウの移動を例示した図である。
図9(a)は、電子デバイスがユーザから第2の個体を左上方向にドラッグする入力を受信した後の画面の変化を示した図である。図9(a)に示すように、電子デバイスは、ユーザからの第2の個体を左上方向にドラッグする入力を受信すると、第1の個体は、右下の方向に移動する。親画像及びウィンドウも第1の個体と同じ方向及び距離を移動する。第1の個体、親画像、及びウィンドウの移動方向及び距離は図4で説明したのと同じ方式で決定することができる。
図9(b)は、電子デバイスがユーザから第2の個体を右下の方向にドラッグする入力を受信した後の画面の変化を示した図である。図9(b)に示すように、電子デバイスは、ユーザからの、第2の個体を右下の方向にドラッグする入力を受信すると、第1の個体は、左上方向に移動する。このとき、親画像及びウィンドウも第1の個体と同じ方向及び距離を移動する。第1の個体は、親画像、及びウィンドウの移動方向及び距離は図4で説明したのと同じ方式で決定することができる。
一方、図9(a)及び図9(b)に示すように、第1の個体の移動に応じて画面に親画像の他の部分を表示してよい。ウィンドウの外にある部分は、元の色よりも暗く表示するようにすることができる。
ドラッグが終了すると、第1の個体上でドラッグが終了した位置に第2の個体が配置される。配置する動作は、第1の個体上でドラッグが終了した位置に第2の個体を挿入する動作を含んでよい。
個体の挿入が完了すると、電子デバイスは、画面をリフレッシュ(refresh)することができる。リフレッシュは、第2の個体のドラッグ前の第1の個体が表示されていたのと同じ状態で、第1の個体を表示し、第1の個体に挿入した第2の個体を第1の個体上で、特定のアイコンで表示するものであってよい。第1の個体上で第2の個体を挿入した位置を示すアイコンは
Figure 2021508890
状アイコンであってよい。
図10は、本発明の一実施形態による方法として、画面に収まらないほど大きな親画像を画面に入る大きさに縮小していない、もしくは画面に入る親画像を画面に入らない程度の大きさに拡大した状態で第2の個体を挿入しようとする場合に、第2の個体のウィンドウの外にドラッグしたとき、第1の個体、親画像、及びウィンドウの移動を例示した図である。
電子デバイスは、ユーザからの、第2の個体をドラッグする入力を受信すると、第2の個体のドラッグ方向とは反対の方向に第1の個体、親画像、及びウィンドウが移動する。第1の個体の移動に応じて画面に親画像の他の部分を表示することができ、ウィンドウの外にある部分は、元の色よりも暗く表示されるようにすることができる。
図10(a)は、第2の個体をウィンドウの外にドラッグした状態を示した図である。図10(a)に示すように、第2の個体をウィンドウの外にドラッグすることが許容される。
図10(b)は、第2の個体をウィンドウの外にドラッグした状態でドラッグを止め、クリックまたはタッチを維持するユーザーの入力を受信している状態を示した図である。図10(b)に示すように、第2の個体を画面の左上にドラッグし、ウィンドウの外に位置した状態でドラッグを停止してクリックまたはタッチを維持するとウィンドウが止まった状態で、親画像及び第1の個体だけを継続して移動させることができる。このとき、親画像及び第1の個体の移動速度を第1の速度とする。
ウィンドウの移動を停止し、親画像及び第1の個体を第1の速度で移動させることで、ユーザの編集可能領域に対する集中を維持させ、ユーザーが簡単に親画像の他の領域で第2の個体を挿入する場所を見つけるようにすることができる。
一方、第2の個体がウィンドウの外にドラッグした位置によって親画像及び第1の個体の移動速度を変更することができる。例えば第2の個体とウィンドウが予め設定した距離以上に離間したり、第2の個体が画面の隅に予め設定した距離以下に近接する場合に、親画像及び第1の個体を第1の速度と異なる第2の速度で移動させることができる。
また、第2の個体がウィンドウの外にドラッグした状態での追加ドラッグに応じて、親画像と第1の個体の移動方向を変更することができる。例えば第2の個体がウィンドウの外にドラッグした後、もう1回ドラッグされている場合は、もう1回ドラッグした方向とは反対の方向に、親画像と第1の個体を移動させることができる。
第2の個体を再度ウィンドウの外部から内部にドラッグすると、親画像及び第1の個体を第1の速度で移動させる動作を停止するようにすることができる。現在ウィンドウの内部に表示された領域に第2の個体を挿入できるようにするためである。
6.フローチャート
図11は、本発明の一実施形態に係る画像のパンニング方法を例示したフローチャートである。
図11に示すように、本発明の一実施形態に係る画像のパンニング方法は、電子デバイスの画面に表示した第1の個体上に第2の個体を配置させるために、電子装置によって実行される方法において、第2の個体を第1の個体上で第1の方向に移動させるドラッグする入力を受信するステップ(S1110)、第1の個体を第1の方向とは反対の第2の方向に移動させるステップ(S1120)、第1の個体の終端が画面の終端に到達すると(S1130の「はい」)、第1の方向へのドラッグに応じて第1の個体を第2の方向に継続的に移動させることで、第2の個体を第1の個体の終端近くまで、または第1の個体の終端を脱して第1の個体の外部領域に移動させるドラッグを許容するステップ(S1140)及びドラッグが終了すると(S1150の「はい」)、第1の個体上のドラッグの終了位置に第2の個体を配置させるステップ(S1160)を含む。
その他に前述した実施例で説明した内容と重複する内容は、詳しい説明を省く。
図11は、S1110ないしS1160を順に実行することを記載しているが、これは本発明の技術思想を例示的に説明したにすぎず、S1110ないしS1160の動作が時系列的な順序に限定されるものではない。本発明が属する技術分野で通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲でS1110ないしS1160の順序を変更したり、S1110ないしS1160で1つ以上のステップを省略したり、S1110ないしS1160で1つ以上のステップを並列的に実行するなど、図11の方法を多様に修正及び変形することができるだろう。
一方、前述した実施例で説明した方法は、プロセッサを含むコンピュータまたはスマートフォンなどの電子デバイスが読むことができる記録媒体に、その電子デバイスが読むことができるコードとして具現することが可能である。コンピュータまたはスマートフォンが読むことができる記録媒体は、コンピュータシステムによって読み取ることができるデータが格納されるすべての種類の記録装置を含む。つまり、コンピュータまたはスマートフォンが読むことができる記録媒体は、磁気記録媒体(例えば、ROM、フロッピーディスク、ハードディスクなど)、光学的読み取り媒体(例えば、CD−ROM、DVDなど)、フラッシュメモリ(例えば、USB、SSD)などのストレージ媒体を含む。また、ネットワークにつながったコンピュータシステムに分散され、分散方式でコンピュータまたはスマートフォンが読めるコードが格納されて実行することができる。
本実施例は、本発明の技術的思想を例示的に説明したに過ぎず、本発明が属する技術分野で通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲で、本実施例の様々な修正及び変形が可能である。
本実施例は、本発明の技術的思想を限定するためのものではなく説明するためのものであり、従って、本実施例によって本発明の権利範囲が限定されるものではない。本発明の保護範囲は、特許請求の範囲によって解釈されるべきであり、それと同等、もしくは均等であると認められるすべての技術的思想は、本発明の権利範囲に含まれるものと解釈されるべきである。
本特許出願は、本明細書にその全体が参考として含まれる、2017年12月29日付にて韓国に出願した特許出願番号第10−2017−0184772号に対して優先権を主張する。

Claims (14)

  1. 電子デバイスの画面に表示した第1の個体上に第2の個体を配置させるために、電子装置によって実行される方法において、
    前記第2の個体を前記第1の個体上で第1の方向に移動させるドラッグに応答し、前記画面上に表示した前記第1の個体を前記第1の方向とは反対の第2の方向に移動させるステップ、及び、
    前記第2の個体に対するドラッグが終了すると、前記第1の個体上の前記ドラッグの終了位置に前記第2の個体を配置させるステップを含み、
    前記第1の個体を前記第2の方向に移動させるステップは、
    前記第1の個体の終端が前記画面の終端に到達しても、前記第1の方向へのドラッグに応じて前記第1の個体を前記第2の方向に継続的に移動させることで、前記第2の個体を前記第1の個体の終端近くまで、または、前記第1の個体の終端を超えて前記第1の個体の外部領域に移動させるドラッグを許容する方法。
  2. 前記第1の個体は、画像の全部または一部の領域であることを特徴とする請求項1に記載の方法。
  3. 前記第2の個体を配置させるステップは、
    前記第1の個体内の前記終了位置に前記第2の個体を挿入するステップを含む請求項1に記載の方法。
  4. 前記第1の個体の終端を脱した前記第1の個体の外部領域へのドラッグに応答して予め設定した動作を実行することを特徴とする請求項1に記載の方法。
  5. 前記第1の個体の終端から前記外部領域へのドラッグの方向及び前記第1の個体の終端から前記外部領域への離間距離のうち少なくとも一つに基づいて互いに異なる動作が実行されることを特徴とする請求項4に記載の方法。
  6. 前記第2の個体が前記第1の個体の終端を脱して前記外部領域にドラッグした状態で、ユーザーからのイベントが入力されると、前記イベントに対応するアクションを実行することを特徴とする請求項4に記載の方法。
  7. 前記第1の個体を前記第2の方向に移動させるステップの前に、さらに、
    前記第1の個体上に配置する前記第2の個体を選択するユーザー入力を受信するステップと、
    前記第2の個体をアイコン化して前記画面の前記ユーザー入力を受信した座標に表示するステップ、及び、
    前記画面の中央から前記受信した座標に向けた方向とは反対の方向に移動した第1の個体を前記画面に表示するステップを含む請求項1に記載の方法。
  8. さらに、前記第1の個体上に既に配置した前記第2の個体を選択するユーザー入力を受信するステップ、及び、
    前記画面の中央から前記第2の個体の配置した位置に向かう方向と反対方向に移動した第1の個体を前記画面に表示するステップを含む請求項1に記載の方法。
  9. 前記第1の個体を前記第2の方向に移動させるステップの前に、さらに、
    前記第1の個体の全部または一部の領域を強調するためのウィンドウを前記第1の個体上にオーバーラップさせて前記画面に表示するステップを含み、
    前記第1の方向とは反対の第2の方向に移動させるステップは、前記第2の個体に対する前記第1の方向へのドラッグに応じて前記第1の個体と前記ウィンドウを同時に第2の方向に移動させることを特徴とする請求項1に記載の方法。
  10. 前記第1の個体のうち前記ウィンドウの内部に表示される領域と、前記ウィンドウの外部に表示される領域は、互いに異なる視覚効果で、前記画面にディスプレイされることを特徴とする請求項9に記載の方法。
  11. 前記第2の個体に対する第1の方向へのドラッグが前記ウィンドウの外部で停止すると、前記ウィンドウの移動を停止させ、前記第1の個体を第1の速度で前記第2の方向に移動させることを特徴とする請求項9に記載の方法。
  12. 前記第2の個体に対する前記第1の方向へのドラッグが前記ウィンドウの外部で停止した位置に基づき、前記第1の個体を前記第1の速度と異なる第2の速度で前記第2の方向に移動させることを特徴とする請求項11に記載の方法。
  13. 前記第2の個体を再度前記ウィンドウの外部から内部にドラッグすると、第1の個体を第1の速度で前記第2の方向に移動させる動作を中止することを特徴とする請求項11に記載の方法。
  14. 請求項1ないし請求項13のいずれか一項の方法を実行させるプログラムを記録した、コンピュータの読み取り可能な記録媒体。
JP2020536663A 2017-12-29 2018-12-28 画像のパンニング方法 Active JP6995208B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020170184772A KR102509976B1 (ko) 2017-12-29 2017-12-29 이미지 패닝 방법
KR10-2017-0184772 2017-12-29
PCT/KR2018/016816 WO2019132563A1 (ko) 2017-12-29 2018-12-28 이미지 패닝 방법

Publications (3)

Publication Number Publication Date
JP2021508890A true JP2021508890A (ja) 2021-03-11
JP2021508890A5 JP2021508890A5 (ja) 2021-04-22
JP6995208B2 JP6995208B2 (ja) 2022-01-14

Family

ID=67067861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536663A Active JP6995208B2 (ja) 2017-12-29 2018-12-28 画像のパンニング方法

Country Status (5)

Country Link
US (1) US11243678B2 (ja)
EP (1) EP3734431A4 (ja)
JP (1) JP6995208B2 (ja)
KR (1) KR102509976B1 (ja)
WO (1) WO2019132563A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022515462A (ja) * 2018-12-26 2022-02-18 ピージェー ファクトリー カンパニー リミテッド イメージ処理方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD945390S1 (en) * 2019-09-24 2022-03-08 Beijing Xiaomi Mobile Software Co., Ltd. Mobile phone with animated graphical user interface

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258952A (ja) * 1996-03-21 1997-10-03 Oki Electric Ind Co Ltd カードベースハイパーメディア編集制御方法とシステム
US6331863B1 (en) * 1990-12-28 2001-12-18 Apple Computer, Inc. Intelligent scrolling
JP2003066940A (ja) * 2001-05-10 2003-03-05 Samsung Electronics Co Ltd ディスプレイ装置で領域のコントラスト及びシャープネスを制御できる装置及び方法
JP2007122718A (ja) * 2005-10-28 2007-05-17 Seiko Epson Corp ビューポートを介して画像をパンするための方法、内部にビューポートを表示しているグラフィカルユーザインタフェースおよびもう一つのコンピューティングデバイスと対話するように構成されたコンピューティングデバイス
US20100017734A1 (en) * 2005-07-13 2010-01-21 Microsoft Corporation Rich drag drop user interface
US20110302532A1 (en) * 2010-06-04 2011-12-08 Julian Missig Device, Method, and Graphical User Interface for Navigating Through a User Interface Using a Dynamic Object Selection Indicator
WO2013047541A1 (ja) * 2011-09-28 2013-04-04 シャープ株式会社 視認性を高める表示装置および表示方法
JP2013218646A (ja) * 2012-04-12 2013-10-24 Ntt Docomo Inc 表示装置及びプログラム
JP2016521418A (ja) * 2013-04-04 2016-07-21 パク・ジョンファン オブジェクトが挿入された画像を生成して編集する方法及びその装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611060A (en) * 1995-02-22 1997-03-11 Microsoft Corporation Auto-scrolling during a drag and drop operation
US8074181B2 (en) * 2008-09-15 2011-12-06 Microsoft Corporation Screen magnifier panning model with dynamically resizable panning regions
KR20140016454A (ko) * 2012-07-30 2014-02-10 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 오브젝트 이동을 위한 드래그 제어 방법 및 장치
US10824313B2 (en) * 2013-04-04 2020-11-03 P.J. Factory Co., Ltd. Method and device for creating and editing object-inserted images
US20140372923A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation High Performance Touch Drag and Drop
GB2516029A (en) * 2013-07-08 2015-01-14 Ibm Touchscreen keyboard

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331863B1 (en) * 1990-12-28 2001-12-18 Apple Computer, Inc. Intelligent scrolling
JPH09258952A (ja) * 1996-03-21 1997-10-03 Oki Electric Ind Co Ltd カードベースハイパーメディア編集制御方法とシステム
JP2003066940A (ja) * 2001-05-10 2003-03-05 Samsung Electronics Co Ltd ディスプレイ装置で領域のコントラスト及びシャープネスを制御できる装置及び方法
US20100017734A1 (en) * 2005-07-13 2010-01-21 Microsoft Corporation Rich drag drop user interface
JP2007122718A (ja) * 2005-10-28 2007-05-17 Seiko Epson Corp ビューポートを介して画像をパンするための方法、内部にビューポートを表示しているグラフィカルユーザインタフェースおよびもう一つのコンピューティングデバイスと対話するように構成されたコンピューティングデバイス
US20110302532A1 (en) * 2010-06-04 2011-12-08 Julian Missig Device, Method, and Graphical User Interface for Navigating Through a User Interface Using a Dynamic Object Selection Indicator
WO2013047541A1 (ja) * 2011-09-28 2013-04-04 シャープ株式会社 視認性を高める表示装置および表示方法
JP2013218646A (ja) * 2012-04-12 2013-10-24 Ntt Docomo Inc 表示装置及びプログラム
JP2016521418A (ja) * 2013-04-04 2016-07-21 パク・ジョンファン オブジェクトが挿入された画像を生成して編集する方法及びその装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022515462A (ja) * 2018-12-26 2022-02-18 ピージェー ファクトリー カンパニー リミテッド イメージ処理方法及びプログラム
JP7229587B2 (ja) 2018-12-26 2023-02-28 ピージェー ファクトリー カンパニー リミテッド イメージ処理方法及びプログラム

Also Published As

Publication number Publication date
EP3734431A1 (en) 2020-11-04
KR102509976B1 (ko) 2023-03-14
EP3734431A4 (en) 2021-09-22
WO2019132563A1 (ko) 2019-07-04
US20200341608A1 (en) 2020-10-29
KR20190081911A (ko) 2019-07-09
JP6995208B2 (ja) 2022-01-14
US11243678B2 (en) 2022-02-08

Similar Documents

Publication Publication Date Title
US10691331B2 (en) Native overlay for rapid editing of web content
US20190265866A1 (en) User interface for editing web content
EP2699998B1 (en) Compact control menu for touch-enabled command execution
US10747391B2 (en) Method and device for executing applications through application selection screen
JP6018045B2 (ja) 選択したデータの一時的な書式設定とグラフ化
EP2743825A1 (en) Dynamical and smart positioning of help overlay graphics in a formation of user interface elements
US20160062585A1 (en) Managing objects in panorama display to navigate spreadsheet
TW201525851A (zh) 頁面元件之接觸式重組
EP3191927B1 (en) Method and device for executing applications through application selection screen
KR102702653B1 (ko) 실시간 협업을 위한 라이브 잉크 프레즌스
JP6995208B2 (ja) 画像のパンニング方法
CN104898928A (zh) 一种图文信息展示方法及终端
US20140245197A1 (en) Duplicating graphical widgets
US10754524B2 (en) Resizing of images with respect to a single point of convergence or divergence during zooming operations in a user interface
US10514841B2 (en) Multi-layered ink object
CN103699381A (zh) 基于Firefox OS平台的微件设置方法及系统
US11269418B2 (en) Proximity selector
KR101730381B1 (ko) 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211214

R150 Certificate of patent or registration of utility model

Ref document number: 6995208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150