WO2014167675A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2014167675A1
WO2014167675A1 PCT/JP2013/060848 JP2013060848W WO2014167675A1 WO 2014167675 A1 WO2014167675 A1 WO 2014167675A1 JP 2013060848 W JP2013060848 W JP 2013060848W WO 2014167675 A1 WO2014167675 A1 WO 2014167675A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
selection frame
display
display processing
point
Prior art date
Application number
PCT/JP2013/060848
Other languages
English (en)
French (fr)
Inventor
山本 晃司
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2013/060848 priority Critical patent/WO2014167675A1/ja
Priority to JP2015511018A priority patent/JP6034486B2/ja
Publication of WO2014167675A1 publication Critical patent/WO2014167675A1/ja
Priority to US14/880,012 priority patent/US20160035062A1/en

Links

Images

Classifications

    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Definitions

  • the embodiment of the present invention relates to a technique for selecting a part of an image.
  • the edge image cannot be automatically generated, and the user needs to set an area for generating the edge image using the selection frame.
  • An object of the present invention is to provide an electronic apparatus that can perform an image reduction / enlargement operation and a selection frame deformation operation without switching.
  • the electronic device includes display processing means.
  • the display processing means displays the first image and a rectangular selection frame in the display area of the display screen.
  • the display processing means deforms the selection frame according to an input from the input means, and reduces or enlarges the first image according to the position of the first point on the selection frame moved by the deformation.
  • FIG. 1 is a perspective view illustrating an example of an appearance of an electronic apparatus according to an embodiment.
  • FIG. 2 is a block diagram illustrating an example of a system configuration of the electronic apparatus according to the embodiment.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the image processing program.
  • FIG. 4 is a diagram illustrating a state in which an image corresponding to an image file obtained by photographing a whiteboard is displayed.
  • FIG. 5 is a diagram showing an image and a selection frame when the selection button shown in FIG. 4 is operated.
  • FIG. 6 is a diagram illustrating a state where an image is displayed in a reduced size.
  • FIG. 7 is a diagram illustrating a state in which an area in the image is selected using the selection frame.
  • FIG. 1 is a perspective view illustrating an example of an appearance of an electronic apparatus according to an embodiment.
  • FIG. 2 is a block diagram illustrating an example of a system configuration of the electronic apparatus according to the embodiment.
  • FIG. 3 is a
  • FIG. 8 is a diagram illustrating an image cut out by the cut-out processing unit.
  • FIG. 9 is a diagram illustrating an image corrected to a rectangular shape by the correction processing unit.
  • FIG. 10 is a diagram illustrating a state in which an image is enlarged and displayed.
  • FIG. 11 is a flowchart showing the procedure of enlargement / reduction processing by the display processing unit.
  • FIG. 1 is a perspective view showing an appearance of an electronic apparatus according to an embodiment.
  • This electronic device includes various electronic devices such as a tablet computer, a notebook personal computer, a smart phone, a PDA (personal digital assistant), or a digital camera (digital camera). It can be realized as an embedded system embedded in the device. Below, the case where this electronic device is implement
  • the tablet computer 10 is a portable electronic device also called a tablet or a slate computer, and includes a main body 11 and a touch screen display 17 as shown in FIG. The touch screen display 17 is attached to be superposed on the upper surface of the main body 11.
  • the main body 11 has a thin box-shaped housing.
  • the touch screen display 17 includes a flat panel display and a sensor configured to detect a contact position of a pen or a finger on the screen of the flat panel display.
  • the flat panel display may be, for example, a liquid crystal display (LCD).
  • As the sensor for example, a capacitive touch panel, an electromagnetic induction digitizer, or the like can be used.
  • a camera module (camera module) for taking an image is provided on the back side of the main body 11.
  • FIG. 2 is a diagram showing a system configuration of the tablet computer 10.
  • the tablet computer 10 includes a CPU (central processing unit) 101, a system controller 102, a main memory (memory) 103, a GPU (Graphic Processing Unit) 104, a BIOS-ROM 105, a nonvolatile memory A memory (nonvolatile memory) 106, a wireless communication device (device) 107, an embedded controller (EC) 108, a camera module 109, and the like are provided.
  • the CPU 101 is a processor that controls the operation of various modules in the tablet computer 10.
  • the CPU 101 executes various software (software) loaded from the nonvolatile memory 106 which is a storage device (storage device) to the main memory 103.
  • the software includes an operating system (OS) 201 and various application programs.
  • the application program includes an image processing program (program) 202.
  • the image processing program 202 has a function of correcting a rectangular selection area selected from an image corresponding to an image file captured using the camera module 109 into a rectangular shape, for example.
  • the CPU 101 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 105.
  • BIOS is a program for hardware control.
  • the system controller 102 is a device that connects between a local bus of the CPU 101 and various components.
  • the system controller 102 also includes a memory controller (memory controller) that controls access to the main memory 103.
  • the system controller 102 also has a function of executing communication with the GPU 104 via a PCI EXPRESS standard serial bus.
  • the GPU 104 is a display controller that controls the LCD 17 ⁇ / b> A used as a display monitor of the tablet computer 10.
  • a display signal generated by the GPU 104 is sent to the LCD 17A.
  • the LCD 17A displays a screen image based on the display signal.
  • a touch panel 17B is disposed on the LCD 17A.
  • the wireless communication device 107 is a device configured to perform wireless communication such as wireless LAN or 3G mobile communication.
  • the EC 108 is a one-chip microcomputer including an embedded controller for power management.
  • the EC 108 has a function of turning on or off the tablet computer 10 in accordance with a power button operation by the user.
  • FIG. 3 is a block diagram showing the configuration of the image processing program 202.
  • the image processing program 202 includes a display processing unit 301, a cutout processing unit 302, a correction processing unit 303, and the like.
  • the display processing unit 301 performs processing for displaying a background image indicating a display area of an image and an image based on an image file (file) on the background image on the LCD 17A as a display screen, and reducing / enlarging the image. Processing for displaying the function, the background image, the image on the background image, and the rectangular selection frame on the image on the LCD 17A is performed.
  • EXIF Exchangeable image file format
  • the display processing unit 301 generates display data to be displayed on the LCD 17A.
  • the operating system 201 transmits display data based on the generated display data (data) to the GPU 104.
  • the GPU 104 generates a display signal based on the transmitted data, and outputs the generated display signal to the LCD 17A.
  • LCD 17A displays an image based on the display signal.
  • the selection frame is displayed superimposed on the image.
  • the display processing unit 301 deforms and displays the selection frame in response to an input from the touch panel 17B as input means.
  • the display processing unit 301 enlarges or reduces the image according to the position of the point on the selection frame that is moving due to the deformation.
  • the display processing unit 301 enlarges or reduces the image at a speed corresponding to the position of the point on the selection frame that is moving due to the deformation.
  • the cutout processing unit 302 performs a process of cutting out the image of the rectangular area selected by the selection frame.
  • the correction processing unit 303 performs processing for correcting the image of the clipped area into a rectangular shape based on the focal length at the time of shooting.
  • the cutout processing unit 302 cuts out an image and a background image when the selected region in the selection frame includes an image and a background image.
  • FIG. 4 shows a state in which an image corresponding to an image file (image data) obtained by photographing the whiteboard by the camera module 109 is displayed.
  • image data image data
  • FIG. 4 shows a state in which an image corresponding to an image file (image data) obtained by photographing the whiteboard by the camera module 109 is displayed.
  • the upper right corner and the lower right corner of the whiteboard are not displayed in the image 401.
  • a control panel including a selection button (button) 411 and a correction button (button) 412 is displayed on the right side of the area 401.
  • the display processing unit 301 displays a selection frame.
  • a selection frame 501 for selecting a writing area in which a whiteboard character or picture is written is displayed.
  • the portion of the writing area that is not displayed is indicated by a broken line.
  • the writing area cannot be selected.
  • the display processing unit 301 displays the image 400 in a reduced size.
  • the display processing unit 301 reduces the image 400 at a speed according to the distance D1.
  • the display processing unit 301 includes a region 401A in which the distance D1 between the vertex (for example, the operation point P5) of the selection frame 501 that is moving due to the deformation and the outer periphery of the background image 401 is within the first set value DS1.
  • the image 400 is reduced and displayed at a speed corresponding to the distance D1.
  • the display processing unit 301 reduces and displays the image 400 at a faster reduction speed as the distance D1 is shorter.
  • a point C1 estimated as the upper right corner of the writing area and a point C2 estimated as the lower right corner of the writing area are positioned on the background image as the display area. become.
  • the user moves the operation point where the operation is performed to the outside of the area 401A.
  • the reduction speed becomes zero. Therefore, the image 400 is displayed at a reduction ratio immediately before the operation point moves outside the area 401A.
  • the operation points P3 and P5 of the selection frame 501 are moved onto the points C1 and C2 estimated as the virtual upper right corner and lower right corner of the why board as shown in FIG. It becomes possible. Therefore, a rectangular area including a writing area can be selected by the selection frame 501.
  • the cutout processing unit 302 cuts out the area selected by the selection frame 501. As shown in FIG. 8, an image 400A including an image 400 and a background image 401 is cut out. After the cutout, the correction processing unit 303 corrects the cutout image 400A into a rectangular shape. FIG. 9 shows a modified rectangular image 400B.
  • the display processing unit 301 displays the image 400 in an enlarged manner.
  • the display processing unit 301 determines that the distance D2 between the vertex of the moving selection frame that is moving due to the deformation and the diagonal line connecting the two vertices adjacent to the vertex is from the second set value DS2. When it becomes shorter, the image 400 is enlarged at a speed corresponding to the distance D2. In other words, when the distance D2 between the point on the selection frame 501 that is moving due to the deformation and the center portion of the selection frame becomes shorter than the second set value DS2, the display processing unit 301 displays the image 400 at a speed according to the distance D2. To enlarge. The display processing unit 301 enlarges the image 400 at a faster enlargement speed as the distance D2 is shorter.
  • FIG. 11 is a flowchart showing the procedure of enlargement / reduction processing by the display processing unit 301.
  • the display processing unit 301 determines whether or not the first distance D1 indicating the shortest distance between the moving vertex of the selection frame 501 and the outer periphery of the background image 401 is shorter than the first set value DS1 (step B11).
  • the display processing unit 301 reduces and displays the image at a reduction speed corresponding to the value of the first distance D1 (Step B14).
  • the display processing unit 301 determines that the second distance D2 indicating the distance between the moving vertex of the selection frame 501 and the diagonal line connecting the two vertices adjacent to the vertex. It is determined whether it is shorter than the second set value DS2 (step B12). When it is determined that the image is short (Yes in Step B12), the image is enlarged and displayed at an enlargement speed corresponding to the value of the second distance D2 (Step B15). When it is determined that it is not short (No in Step B12), the reduction speed or the enlargement speed is set to zero.
  • the image is not enlarged or reduced.
  • the display processing unit 301 may reduce or enlarge the image 400 at a speed according to the size of the LCD 17A.
  • the image is enlarged or reduced in accordance with the position of the first point on the selection frame 501 moved by the deformation, whereby the image reduction / enlargement operation and the selection frame deformation operation are performed. This can be done without switching.

Abstract

 実施形態によれば、電子機器は、表示処理手段を具備する。表示処理手段は、第1の画像と、四角形の選択枠とを表示画面の表示領域に表示する。表示処理手段は、入力手段からの入力に応じて前記選択枠を変形し、前記変形によって移動される選択枠上の第1の点の位置に応じて前記第1の画像を縮小または拡大する。

Description

電子機器
 本発明の実施形態は、画像の一部を選択する技術に関する。
 矩形形状の輪郭を有する対象物を斜めから撮影すると、矩形形状の輪郭が歪んで撮影される。歪んだ矩形形状の輪郭を含む画像からエッジ(edge)画像を生成して対象物の輪郭の形状を取得し、撮影時の焦点距離などに基づいて歪みを補正する電子機器が提案されている。
特開2005-122328号公報
 画像内に輪郭の全体が表示されていない場合、自動的にエッジ画像を生成できないので、ユーザがエッジ画像を生成するための領域を選択枠によって設定する必要がある。
 この場合、画像を一旦縮小して、選択枠の頂点を対象物の角と推定される位置に移動するように、選択枠を変形させる必要がある。また、縮小しすぎたときには拡大する必要がある。この際に、従来の手法では縮小拡大操作(ピンチイン(pinch in)、ピンチアウト(pinch out)など)と選択枠の変形操作とは、別の操作となるため、操作が煩雑となる。
 本発明の目的は、画像の縮小拡大操作と選択枠の変形操作とを切り換えずに行うことが可能な電子機器を提供することにある。
 実施形態によれば、電子機器は、表示処理手段を具備する。表示処理手段は、第1の画像と、四角形の選択枠とを表示画面の表示領域に表示する。表示処理手段は、入力手段からの入力に応じて前記選択枠を変形し、前記変形によって移動される選択枠上の第1の点の位置に応じて前記第1の画像を縮小または拡大する。
図1は、実施形態の電子機器の外観の一例を示す斜視図である。 図2は、実施形態の電子機器のシステム構成の一例を示すブロック図である。 図3は、画像処理プログラムの構成の一例を示すブロック図である。 図4は、ホワイトボードを撮影した画像ファイルに対応する画像を表示した状態を示す図である。 図5は、図4に示す選択ボタンを操作した場合の画像および選択枠を示す図である。 図6は、画像を縮小表示している状態を示す図である。 図7は、選択枠によって画像内の領域を選択した状態を示す図である。 図8は、切り出し処理部によって切り出された画像を示す図である。 図9は、補正処理部によって矩形形状に修正された画像を示す図である。 図10は、画像を拡大表示している状態を示す図である。 図11は、表示処理部による拡大/縮小処理の手順を示すフローチャートである。
 以下、実施の形態について図面を参照して説明する。
 図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、タブレットコンピュータ(tablet computer)、ノートブック(notebook)型パーソナルコンピュータ(personal computer)、スマートフォン(smart phone)、PDA(personal digital assistant)、またはデジタルカメラ(digital camera)のような各種電子機器に内蔵される組み込みシステム(system)として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレット(tablet)またはスレートコンピュータ(slate computer)とも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ(touch screen display)17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
 本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイ(flat panel display)と、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサ(sensor)としては、例えば、静電容量方式のタッチパネル(touch panel)、電磁誘導方式のデジタイザ(digitizer)などを使用することができる。
 また、本体11の裏面側には、画像を撮影するためのカメラモジュール(camera module)が設けられている。
 図2は、タブレットコンピュータ10のシステム構成を示す図である。 
 タブレットコンピュータ10は、図2に示されるように、CPU(central processing unit)101、システムコントローラ(system controller)102、主メモリ(memory)103、GPU(Graphic Processing Unit)104、BIOS-ROM105、不揮発性メモリ(nonvolatile memory)106、無線通信デバイス(device)107、エンベデッドコントローラ(EC : embedded controller)108、カメラモジュール109等を備える。
 CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサ(processor)である。CPU101は、ストレージデバイス(storage device)である不揮発性メモリ106から主メモリ103にロード(load)される各種ソフトウェア(software)を実行する。これらソフトウェアには、オペレーティングシステム(OS:operating system)201、および各種アプリケーションプログラム(application program)が含まれている。アプリケーションプログラムには、画像処理プログラム(program)202が含まれている。この画像処理プログラム202は、例えば、カメラモジュール109を用いて撮影された画像ファイルに対応する画像から選択された四角形の選択領域を矩形形状に修正する機能等を有する。
 また、CPU101は、BIOS-ROM105に格納された基本入出力システム(BIOS:Basic Input/Output System)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
 システムコントローラ102は、CPU101のローカルバス(local bus)と各種コンポーネント(component)との間を接続するデバイス(device)である。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラ(memory controller)も内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバス(serial bus)などを介してGPU104との通信を実行する機能も有している。
 GPU104は、本タブレットコンピュータ10のディスプレイモニタ(display monitor)として使用されるLCD17Aを制御する表示コントローラ(controller)である。このGPU104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上にはタッチパネル17Bが配置されている。
 無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラ(embedded controller)を含むワンチップマイクロコンピュータ(one-chip microcomputer)である。EC108は、ユーザ(user)によるパワーボタン(power button)の操作に応じて本タブレットコンピュータ10を電源Onまたは電源Offする機能を有している。
 図3は、画像処理プログラム202の構成を示すブロック(block)図である。 
 画像処理プログラム202は、表示処理部301、切り出し処理部302、補正処理部303等を備えている。
 表示処理部301は、画像の表示領域を示す背景画像と、背景画像上の画像ファイル(file)に基づいた画像とを表示画面としてのLCD17Aに表示するための処理、画像の縮小/拡大を行う機能、背景画像と、背景画像上の画像と、画像上の四角形の選択枠とをLCD17Aに表示するための処理等を行う。画像ファイルには、撮影時の焦点距離等の撮影時の条件が記述されているEXIF(Exchangeable image file format)が埋め込まれている。
 表示処理部301は、LCD17Aに表示するための表示データを生成する。オペレーティングシステム201は、生成された表示データ(data)に基づいた表示データを、GPU104に送信する。GPU104は、送信されたデータに基づいた表示信号を生成し、生成された表示信号をLCD17Aに出力する。LCD17Aは、表示信号に基づいた映像を表示する。
 選択枠は、画像上に重畳されて表示される。表示処理部301は、入力手段としてのタッチパネル17Bからの入力に応じて、選択枠を変形して表示する。
 表示処理部301は、変形により移動している選択枠上の点の位置に応じて、画像の拡大または縮小を行う。表示処理部301は、変形により移動している選択枠上の点の位置に応じた速度で画像の拡大または縮小を行う。
 切り出し処理部302は、選択枠によって選択された四角形領域の画像を切り出す処理を行う。補正処理部303は、撮影時の時の焦点距離などに基づいて、切り出された領域の画像を矩形形状に修正する処理を行う。切り出し処理部302は、選択枠に選択された領域が画像および背景画像を含む場合、画像および背景画像を切り出す。
 図4は、カメラモジュール109によってホワイトボードを撮影した画像ファイル(画像データ)に対応する画像を表示した状態である。図4に示すように、画像401内にホワイトボードの右上角と右下角の部分が表示されていない。領域401の右側には、選択ボタン(button)411と補正ボタン(button)412とを含むコントロールパネルが表示されている。ユーザが、選択枠501上の操作点P1~P8の内の何れか操作点上をタッチ(touch)し、タッチしたままスライド(slide)させることで選択枠501が変形する。
 この状態で、選択ボタン411が操作されると、表示処理部301は、選択枠を表示する。図5に示すように、ホワイトボードの字や絵が書き込まれる書き込み領域を選択するための選択枠501が表示されている。図5において、書き込み領域の表示されていない部分を破線で示している。図5に示すように、ホワイトボードの右上角と左上角は、LCD17Aに表示されていないので、書き込み領域を選択することができない。
 表示処理部301は、選択枠501の頂点が背景画像401の外周付近に位置するようになると、画像400を縮小表示する。表示処理部301は、変形により移動している選択枠501上の点と背景画像401の外周との距離D1が第1設定値DS1より短くなると、距離D1に応じた速度で画像400を縮小する。より詳細には、表示処理部301は、変形により移動している選択枠501の頂点(例えば、操作点P5)と背景画像401の外周との距離D1が第1設定値DS1以内である領域401A内にある場合に、距離D1に応じた速度で画像400を縮小表示する。表示処理部301は、距離D1が短いほど速い縮小速度で画像400を縮小表示する。
 縮小表示されることで、図6に示すように、書き込み領域の右上角と推定される点C1と書き込み領域の右下角と推定される点C2とが表示領域としての背景画像上に位置するようになる。
 この時点で、ユーザは、操作が行われている操作点を領域401A外に移動させる。操作点が領域401A外に移動することで、縮小速度が0になる。そのため、操作点が領域401A外に移動する直前の縮小倍率で画像400が表示される。
 画像400が縮小表示されることで、図7に示すように、選択枠501の操作点P3、P5をホワイボードの仮想的な右上角および右下角と推定される点C1、C2上に移動させることが可能になる。そのため、書き込み領域を含む四角形領域を選択枠501によって選択することが可能になる。
 選択枠501による選択が完了した後に補正ボタン412が操作されると、切り出し処理部302は、選択枠501により選択された領域を切り出す。図8に示すように、画像400および背景画像401を含む画像400Aが切り出される。切り出し後、補正処理部303は、切り出された画像400Aを矩形形状に修正する。図9は、修正された矩形画像400Bを示す。
 なお、図10に示すように、頂点を選択枠501の中心に近づけると、表示処理部301は、画像400を拡大表示する。
 より詳細には、表示処理部301は、変形により移動している移動している選択枠の頂点と、当該頂点と隣り合う二つの頂点を結んだ対角線との距離D2が第2設定値DS2より短くなると、距離D2に応じた速度で画像400を拡大する。換言すると、表示処理部301は、変形により移動している選択枠501上の点と選択枠の中央部との距離D2が第2設定値DS2より短くなると、距離D2に応じた速度で画像400を拡大する。表示処理部301は、距離D2が短いほど速い拡大速度で画像400を拡大する。
 図11は、表示処理部301による拡大/縮小処理の手順を示すフローチャート(flow chart)である。 
 表示処理部301は、選択枠501の移動中の頂点と、背景画像401の外周との最短距離を示す第1距離D1が第1設定値DS1より短いかを判定する(ステップ(step)B11)。短いと判定した場合(ステップB11のYes)、表示処理部301は、第1距離D1の値に応じた縮小速度で画像を縮小表示する(ステップB14)。短くないと判定した場合(ステップB11のNo)、表示処理部301は、選択枠501の移動中の頂点と、当該頂点に隣接する二つの頂点を結ぶ対角線との距離を示す第2距離D2が第2設定値DS2より短いかを判定する(ステップB12)。短いと判定した場合(ステップB12のYes)、第2距離D2の値に応じた拡大速度で画像を拡大表示する(ステップB15)。短くないと判定した場合(ステップB12のNo)、縮小速度または拡大速度を0にする。
 なお、距離D1が第1設定値DS1より短くなく、距離D2が第2設定値DS2より短くない領域では、画像の拡大および縮小が行われない。
 表示処理部301は、LCD17Aのサイズに応じた速度で画像400を縮小または拡大しても良い。
 本実施形態によれば、変形によって移動される選択枠501上の第1の点の位置に応じて、画像の拡大または縮小を行うことによって、画像の縮小拡大操作と選択枠の変形操作とを切り換えずに行うことが可能になる。
 なお、本実施形態の画像処理の手順は全てソフトウェアによって実行することができる。このため、画像表示処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (13)

  1.  第1の画像と、四角形の選択枠とを表示画面の表示領域に表示する表示処理手段であって、入力手段からの入力に応じて前記選択枠を変形し、前記変形によって移動される選択枠上の第1の点の位置に応じて前記第1の画像を縮小または拡大する、表示処理手段
    を具備する電子機器。
  2.  前記選択枠は前記第1の画像内の領域を選択する
    請求項1に記載の電子機器。
  3.  前記表示処理手段は、前記第1の点と前記表示領域の周囲との間の第1距離が第1設定値より短い場合に前記第1の画像を縮小する請求項1に記載の電子機器。
  4.  前記第1の点は、前記選択枠の4つの頂点のうちの第1の頂点である請求項1に記載の電子機器。
  5.  前記表示処理手段は、前記第1の頂点と前記表示領域の周囲との間の第1距離が第1設定値より短い場合に前記第1の画像を縮小する請求項4に記載の電子機器。
  6.  前記表示処理手段は、前記第1の点と前記選択枠の中央部との第2距離が第2設定値より短い場合に前記第1の画像を拡大する請求項1に記載の電子機器。
  7.  前記第1の点は、前記選択枠の4つの頂点のうちの第1の頂点であり、
     前記表示処理手段は、前記第1の頂点と、前記選択枠のうちの当該第1の頂点と隣り合う二つの頂点を結んだ対角線との距離が第2の設定距離より短い場合に前記第1の画像を拡大する請求項1に記載の電子機器。
  8.  前記選択枠内の前記第1の画像を切り出す切り出し手段と、
     前記切り出された画像を矩形形状に修正する補正手段を更に具備する請求項1に記載の電子機器。
  9.  前記表示処理手段は、前記第1の画像を背景画像上に表示し、
     前記選択枠が前記第1の画像および背景画像を含む場合、前記切り出し手段は、前記選択枠内の前記第1の画像および前記背景画像を切り出す請求項8に記載の電子機器。
  10.  前記表示処理手段は、前記第1の点の位置に応じた速度で前記第1の画像を縮小または拡大する請求項1に記載の電子機器。
  11.  前記表示処理手段は、前記表示画面のサイズに応じた速度で前記第1の画像を縮小または拡大する請求項1に記載の電子機器。
  12.  第1の画像と、四角形の選択枠とを表示画面の表示領域に表示し、
     入力手段からの入力に応じて前記選択枠を変形し、
     前記変形によって移動される選択枠上の第1の点の位置に応じて前記第1の画像を縮小または拡大する
    表示方法。
  13.  第1の画像と、四角形の選択枠とを表示画面の表示領域に表示する手順と、
     入力手段からの入力に応じて前記選択枠を変形する手順と、
     前記変形によって移動される選択枠上の第1の点の位置に応じて前記第1の画像を縮小または拡大する手順と
    をコンピュータに実行させるためのプログラム。
PCT/JP2013/060848 2013-04-10 2013-04-10 電子機器 WO2014167675A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/060848 WO2014167675A1 (ja) 2013-04-10 2013-04-10 電子機器
JP2015511018A JP6034486B2 (ja) 2013-04-10 2013-04-10 電子機器
US14/880,012 US20160035062A1 (en) 2013-04-10 2015-10-09 Electronic apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/060848 WO2014167675A1 (ja) 2013-04-10 2013-04-10 電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/880,012 Continuation US20160035062A1 (en) 2013-04-10 2015-10-09 Electronic apparatus and method

Publications (1)

Publication Number Publication Date
WO2014167675A1 true WO2014167675A1 (ja) 2014-10-16

Family

ID=51689109

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/060848 WO2014167675A1 (ja) 2013-04-10 2013-04-10 電子機器

Country Status (3)

Country Link
US (1) US20160035062A1 (ja)
JP (1) JP6034486B2 (ja)
WO (1) WO2014167675A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017168542A (ja) * 2016-03-15 2017-09-21 パナソニックIpマネジメント株式会社 下受けピン配置支援装置および下受けピン配置支援システムならびに下受けピン配置支援方法
JP2017168541A (ja) * 2016-03-15 2017-09-21 パナソニックIpマネジメント株式会社 下受けピン配置支援装置および下受けピン配置支援方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311926A (ja) * 2004-04-26 2005-11-04 Casio Comput Co Ltd 電子カメラおよびプログラム
JP2007166009A (ja) * 2005-12-09 2007-06-28 Casio Hitachi Mobile Communications Co Ltd 撮像装置、撮像画像処理方法及びプログラム
JP2008521067A (ja) * 2004-11-19 2008-06-19 富士フイルム株式会社 画面編集装置、画面編集方法及び画面編集プログラム
JP2009265835A (ja) * 2008-04-23 2009-11-12 Denso It Laboratory Inc 画面表示装置、画面表示方法およびプログラム
JP2012238098A (ja) * 2011-05-10 2012-12-06 Canon Inc 画像処理装置、画像処理方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4101129B2 (ja) * 2002-09-30 2008-06-18 キヤノン株式会社 画像編集方法、画像編集装置、プログラム及び記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311926A (ja) * 2004-04-26 2005-11-04 Casio Comput Co Ltd 電子カメラおよびプログラム
JP2008521067A (ja) * 2004-11-19 2008-06-19 富士フイルム株式会社 画面編集装置、画面編集方法及び画面編集プログラム
JP2007166009A (ja) * 2005-12-09 2007-06-28 Casio Hitachi Mobile Communications Co Ltd 撮像装置、撮像画像処理方法及びプログラム
JP2009265835A (ja) * 2008-04-23 2009-11-12 Denso It Laboratory Inc 画面表示装置、画面表示方法およびプログラム
JP2012238098A (ja) * 2011-05-10 2012-12-06 Canon Inc 画像処理装置、画像処理方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017168542A (ja) * 2016-03-15 2017-09-21 パナソニックIpマネジメント株式会社 下受けピン配置支援装置および下受けピン配置支援システムならびに下受けピン配置支援方法
JP2017168541A (ja) * 2016-03-15 2017-09-21 パナソニックIpマネジメント株式会社 下受けピン配置支援装置および下受けピン配置支援方法

Also Published As

Publication number Publication date
JP6034486B2 (ja) 2016-11-30
JPWO2014167675A1 (ja) 2017-02-16
US20160035062A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
TWI785258B (zh) 人臉影像處理方法、裝置及儲存介質
US9479693B2 (en) Method and mobile terminal apparatus for displaying specialized visual guides for photography
JP6072340B1 (ja) 表示処理方法、表示処理プログラム及び表示処理システム
US10209945B2 (en) Information processing apparatus capable of quickly updating a display in accordance with an operation for changing a display appearance and control method thereof
KR102121905B1 (ko) Ui 제어의 배경을 설정하는 방법 및 장치, 및 단말
WO2017059734A1 (zh) 一种图片缩放方法及电子设备
WO2018010440A1 (zh) 一种投影画面调整方法、装置和投影终端
US20160070450A1 (en) Electronic device, method, and computer program product
JP6034486B2 (ja) 電子機器
US20140258924A1 (en) Display apparatus and display method for displaying main data and data related to that main data, and a memory medium
US20130097543A1 (en) Capture-and-paste method for electronic device
JP6100657B2 (ja) 電子機器
US9424808B2 (en) Image cropping manipulation method and portable electronic device
JP2013246658A (ja) 表示制御装置および表示制御方法
WO2017016333A1 (zh) 一种屏幕调整方法及装置
CN109085974B (zh) 一种屏幕控制方法、系统及终端设备
US20150356058A1 (en) Method for displaying images and electronic device for implementing the same
WO2023210352A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2014147718A1 (ja) 電子機器、表示制御方法およびプログラム
CN112689822A (zh) 镜像显示方法、柔性显示装置及计算机可读存储介质
WO2014122792A1 (ja) 電子機器、制御方法およびプログラム
KR20140110556A (ko) 객체 표시 방법 및 그 전자 장치
WO2015136697A1 (ja) 電子機器及び画像処理方法
JP2011215800A (ja) 画像処理装置及び画像処理装置の制御方法
TWM636703U (zh) 電子簽名裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13881631

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015511018

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13881631

Country of ref document: EP

Kind code of ref document: A1