WO2019058539A1 - Program, information processing method, and information processing device - Google Patents

Program, information processing method, and information processing device Download PDF

Info

Publication number
WO2019058539A1
WO2019058539A1 PCT/JP2017/034438 JP2017034438W WO2019058539A1 WO 2019058539 A1 WO2019058539 A1 WO 2019058539A1 JP 2017034438 W JP2017034438 W JP 2017034438W WO 2019058539 A1 WO2019058539 A1 WO 2019058539A1
Authority
WO
WIPO (PCT)
Prior art keywords
editing
point
image
contour
displayed
Prior art date
Application number
PCT/JP2017/034438
Other languages
French (fr)
Japanese (ja)
Inventor
フレデリック フォゲル
Original Assignee
Line株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line株式会社 filed Critical Line株式会社
Priority to JP2019542940A priority Critical patent/JP6995867B2/en
Priority to PCT/JP2017/034438 priority patent/WO2019058539A1/en
Publication of WO2019058539A1 publication Critical patent/WO2019058539A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image

Abstract

In an information processing device, the present invention executes: a first display step for displaying a first image; a step for acquiring the contour of an area to be cut in the first image; a second display step for displaying, on the contour, a plurality of editing points for correcting the contour; a third display step for enlarging and displaying the first image, and increasing the number of the plurality of editing points and displaying in response to an operation of a user; and a step for cutting a second image within the contour designated by the plurality of editing points.

Description

プログラム、情報処理方法、及び情報処理装置PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
 本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to a program, an information processing method, and an information processing apparatus.
 従来、ユーザの操作により、画像の一部分を切り抜き(切り取り、トリミング)できるツール(プログラム)が知られている(例えば、特許文献1、非特許文献1を参照)。このツールにおいて、例えば、切り抜く領域は、ユーザにより指やマウスカーソル等で当該領域の輪郭をなぞる操作により指定される。 Conventionally, there is known a tool (program) capable of cutting out (cutting out and trimming) a part of an image by a user operation (see, for example, Patent Document 1 and Non-patent Document 1). In this tool, for example, the cutout area is designated by the user by an operation of tracing the outline of the area with a finger, a mouse cursor or the like.
 なお、切り抜いた画像は、例えば、SNS(Social Networking Service)のインスタントメッセージングサービス等で送信するスタンプ等に利用できる。 The clipped image can be used, for example, as a stamp transmitted by an instant messaging service of SNS (Social Networking Service) or the like.
特開2017-016670号公報JP, 2017-016670, A
 しかしながら、従来技術では、例えば、写真等の画像に含まれる被写体等のオブジェクトの輪郭を、指やマウスカーソル等によりなぞる操作により指定する場合、当該輪郭を正確に指定することは難しい場合があるという問題がある。 However, in the prior art, for example, when an outline of an object such as a subject included in an image such as a photograph is specified by an operation of tracing with a finger or a mouse cursor, it may be difficult to specify the outline accurately. There's a problem.
 本開示は、上記問題に鑑みてなされたものであり、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる技術を提供することを目的とする。 The present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide a technique capable of easily designating an area of an object to be cut out from an image with relatively high accuracy.
 本開示の一実施形態に係るプログラムは、情報処理装置に、第1画像を表示させる第1表示ステップと、前記第1画像において切り抜く領域の輪郭を取得するステップと、前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させる第2表示ステップと、ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる第3表示ステップと、前記複数の編集点により指定される輪郭内の第2画像を切り抜くステップと、を実行させる。 A program according to an embodiment of the present disclosure includes a first display step for causing an information processing apparatus to display a first image, a step of acquiring an outline of a cutout region in the first image, and a method for correcting the outline A second display step of displaying a plurality of editing points respectively on the outline, and in response to a user operation, enlarging and displaying the first image, and increasing the number of the plurality of editing points; A third display step of displaying and a step of cutting out a second image in the contour specified by the plurality of editing points are performed.
本開示の一実施形態における通信システムの構成を示す図である。It is a figure which shows the structure of the communication system in one embodiment of this indication. 画像の一部分を切り抜く際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of cutting out a part of image. 端末における原画像の表示例について説明する図である。It is a figure explaining the example of a display of the original picture in a terminal. 端末における切り抜き範囲の確認画面の表示例について説明する図である。It is a figure explaining the example of a display of the confirmation screen of the clipping range in a terminal. 第1実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of editing the clipping range which concerns on 1st Embodiment. 画像が拡大表示される前の編集点を表示させる方法の一例について説明する図である。It is a figure explaining an example of the method to display the edit point before an image is enlargedly displayed. 画像が拡大表示された際の編集点の数を増加させて表示させる方法の一例について説明する図である。It is a figure explaining an example of the method of making the number of edit points at the time of an image enlarged display displayed, and displaying it. 画像が拡大表示された後に縮小表示された際の編集点の数を減少させて表示させる方法の一例について説明する図である。It is a figure explaining an example of a method of reducing and displaying the number of edit points at the time of being reduced and displayed, after an image is enlarged-displayed. 第2の実施形態における通信システムの構成を示す図である。It is a figure which shows the structure of the communication system in 2nd Embodiment. 第2実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of editing the clipping range which concerns on 2nd Embodiment. 第1の移動点群の表示画面の一例を説明する図である。It is a figure explaining an example of the display screen of a 1st movement point group. 元画像をエッジ検出されたデータの一例を説明する図である。It is a figure explaining an example of the data by which edge detection of the original picture was carried out. 端末の筐体を傾けた際の移動点の移動について説明する図である。It is a figure explaining movement of a move point at the time of tilting a case of a terminal. 端末の筐体を傾けた際の移動点の移動について説明する図である。It is a figure explaining movement of a move point at the time of tilting a case of a terminal. ユーザ操作による移動点の位置が固定された表示画面の一例を示す図である。It is a figure which shows an example of the display screen to which the position of the movement point by user operation was fixed. 第2の移動点群の表示画面の一例を説明する図である。It is a figure explaining an example of the display screen of a 2nd movement point group. 大まかに指定された領域内のエッジを検出した結果のデータの一例を示す図である。It is a figure which shows an example of the data as a result of having detected the edge in the area | region roughly designated. 第3実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of editing the clipping range which concerns on 3rd Embodiment. フリック操作により編集点を移動させて表示させる処理について説明する図である。It is a figure explaining the process which moves and displays an edit point by flick operation. エッジの強さに応じて編集点の移動速度が減衰され、停止させて表示させる処理について説明する図である。It is a figure explaining the processing which makes the moving speed of an edit point attenuate according to the strength of an edge, makes it stop, and is displayed. エッジの強さに応じて編集点の移動速度が減衰され、停止させて表示させる処理について説明する図である。It is a figure explaining the processing which makes the moving speed of an edit point attenuate according to the strength of an edge, makes it stop, and is displayed.
<法的事項の遵守>
 本明細書に記載の開示を実施する場合は、通信の秘密等、本開示を実施に関する実施国の法的事項を遵守の上で実施されるものであることに留意されたい。
<Compliance with legal matters>
When implementing the disclosure described in this specification, it should be noted that the disclosure is implemented in compliance with the legal matters of the implementing country for implementing the disclosure, such as communication secrets.
 本開示に係るプログラム、情報処理方法、及び情報処理装置を実施するための実施形態について、図面を参照して説明する。 DETAILED DESCRIPTION Embodiments of a program, an information processing method, and an information processing apparatus according to the present disclosure will be described with reference to the drawings.
<システム構成>
 図1は、本開示の一実施形態における通信システムの構成を示す図である。図1に開示されるように、通信システムでは、ネットワーク30を介してサーバ10と、端末20(端末20A,端末20B,端末20C)とが接続される。サーバ10は、ネットワーク30を介してユーザが所有する端末20に、端末20間でのメッセージの送受信を実現するサービスを提供する。なお、ネットワーク30に接続される端末20の数は限定されない。
<System configuration>
FIG. 1 is a diagram showing a configuration of a communication system in an embodiment of the present disclosure. As disclosed in FIG. 1, in the communication system, the server 10 and the terminals 20 ( terminals 20A, 20B, and 20C) are connected via the network 30. The server 10 provides a service for realizing transmission and reception of messages between the terminals 20 to the terminals 20 owned by the user via the network 30. The number of terminals 20 connected to the network 30 is not limited.
 ネットワーク30は、1以上の端末20と、1以上のサーバ10とを接続する役割を担う。すなわち、ネットワーク30は、端末20がサーバ10に接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。 The network 30 plays a role of connecting one or more terminals 20 and one or more servers 10. That is, the network 30 refers to a communication network that provides a connection path so that data can be transmitted and received after the terminal 20 connects to the server 10.
 ネットワーク30のうちの1つまたは複数の部分は、有線ネットワークや無線ネットワークであってもよい。ネットワーク30は、限定でなく例として、アドホック・ネットワーク(ad hoc network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(virtual private network:VPN)、ローカル・エリア・ネットワーク(local area network:LAN)、ワイヤレスLAN(wireless LAN:WLAN)、広域ネットワーク(wide area network:WAN)、ワイヤレスWAN(wireless WAN:WWAN)、大都市圏ネットワーク(metropolitan area network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)CDMA(code division multiple access)、ブルートゥース(Bluetooth(登録商標))、衛星通信など、または、これらの2つ以上の組合せを含むことができる。ネットワーク30は、1つまたは複数のネットワーク30を含むことができる。 One or more portions of the network 30 may be a wired network or a wireless network. Network 30 may be, by way of example and not limitation, an ad hoc network, an intranet, an extranet, a virtual private network (VPN), a local area network (LAN), wireless LAN (wireless LAN: WLAN), wide area network (wide area network: WAN), wireless WAN (wireless WAN: WWAN), metropolitan area network (metropolitan area network: MAN), part of the Internet, public switched telephone network (Public) Switched Telephone Network (PSTN), mobile phone network, ISDNs (integrated service digital networks), wireless LANs, long term evolution (LTE) code division multiple access (CDMA), Bluetooth (registered trademark), satellite communication The Or it may include combinations of two or more thereof. Network 30 may include one or more networks 30.
 端末20(端末20A,端末20B,端末20C)は、各実施形態において記載する機能を実現できる情報処理端末であればどのような端末であってもよい。端末20は、限定ではなく例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(限定でなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA・(personal digital assistant)、電子メールクライアントなど)、ウェアラブル端末(メガネ型デバイス、時計型デバイスなど)、または他種のコンピュータ、またはコミュニケーションプラットホームを含む。また、端末20は情報処理端末と表現されても良い。 The terminal 20 (terminal 20A, terminal 20B, terminal 20C) may be any information processing terminal that can realize the functions described in each embodiment. The terminal 20 may be, by way of example and not limitation, a smart phone, a mobile phone (feature phone), a computer (for example but not limited to desktop, laptop, tablet etc.), a media computer platform (for example but not limited to cable, satellite set Top boxes, digital video recorders, handheld computing devices (such as but not limited to PDAs (personal digital assistants, email clients etc.), wearable terminals (glasses type devices, watch type devices etc), or other types of computers Or include a communication platform. Moreover, the terminal 20 may be expressed as an information processing terminal.
 端末20A、端末20Bおよび端末20Cの構成は基本的には同一であるため、以下の説明においては、端末20について説明する。また、必要に応じて、ユーザXが利用する端末を端末20Xと表現し、ユーザXまたは端末20Xに対応づけられた、所定のサービスにおけるユーザ情報をユーザ情報Xと表現する。なお、ユーザ情報とは、所定のサービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、限定でなく例として、ユーザにより入力される、または、所定のサービスにより付与される、ユーザの名前、ユーザのアイコン画像、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、ユーザの識別子などのユーザに対応づけられた情報を含み、これらのいずれか一つまたは、組み合わせであってもよい。 The configurations of the terminal 20A, the terminal 20B and the terminal 20C are basically the same, so the terminal 20 will be described in the following description. Also, if necessary, the terminal used by the user X is expressed as the terminal 20X, and the user information in a predetermined service associated with the user X or the terminal 20X is expressed as the user information X. The user information is information of the user associated with the account used by the user in the predetermined service. The user information is, by way of example and not limitation, the user's name, the user's icon image, the user's age, the user's age, the user's gender, the user's address, the user's hobbies entered by the user or provided by a predetermined service. It includes information associated with the user, such as preferences and user identifiers, and may be any one or a combination of these.
 サーバ10は、端末20に対して、所定のサービスを提供する機能を備える。サーバ10は、各実施形態において記載する機能を実現できる情報処理装置であればどのような装置であってもよい。サーバ10は、限定でなく例として、サーバ装置、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(限定でなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA、電子メールクライアントなど)、あるいは他種のコンピュータ、またはコミュニケーションプラットホームを含む。また、サーバ10は情報処理装置と表現されても良い。 The server 10 has a function of providing a predetermined service to the terminal 20. The server 10 may be any device as long as it can implement the functions described in each embodiment. The server 10 may be, by way of example and not limitation, a server device, a computer (for example but not limited to, desktop, laptop, tablet etc.), a media computer platform (for example but not limited to cable, satellite set top box, digital video recorder) And handheld computing devices (for example and not by way of limitation, PDAs, email clients, etc.), or other types of computers, or communication platforms. Also, the server 10 may be expressed as an information processing apparatus.
<ハードウェア(HW)構成> 
 図1を用いて、通信システムに含まれる各装置のHW構成について説明する。
<Hardware (HW) configuration>
The HW configuration of each device included in the communication system will be described with reference to FIG.
 (1)端末のHW構成 (1) HW configuration of terminal
 端末20は、制御装置21(CPU:central processing unit(中央処理装置))、記憶装置28、通信I/F22(インタフェース)、入出力装置23、表示装置24、マイク25、スピーカ26、カメラ27を備える。端末20のHWの各構成要素は、限定でなく例として、バスBを介して相互に接続される。 The terminal 20 includes a control device 21 (CPU: central processing unit (central processing unit)), a storage device 28, a communication I / F 22 (interface), an input / output device 23, a display device 24, a microphone 25, a speaker 26, and a camera 27. Prepare. The HW components of the terminal 20 are interconnected via the bus B, by way of example and not limitation.
 通信I/F22は、ネットワーク30を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F22は、ネットワーク30を介して、サーバ10との通信を実行する機能を有する。通信I/F22は、各種データを制御装置21からの指示に従って、サーバ10に送信する。また、通信I/F22は、サーバ10から送信された各種データを受信し、制御装置21に伝達する。 The communication I / F 22 transmits and receives various data via the network 30. The communication may be performed by wire or wireless, and any communication protocol may be used as long as communication with each other can be performed. The communication I / F 22 has a function of executing communication with the server 10 via the network 30. The communication I / F 22 transmits various data to the server 10 in accordance with an instruction from the control device 21. The communication I / F 22 receives various data transmitted from the server 10 and transmits the data to the control device 21.
 入出力装置23は、端末20に対する各種操作を入力する装置、および、端末20で処理された処理結果を出力する装置を含む。入出力装置23は、入力装置と出力装置が一体化していても良いし、入力装置と出力装置に分離していてもよい。 The input / output device 23 includes a device for inputting various operations to the terminal 20 and a device for outputting the processing result processed by the terminal 20. The input / output device 23 may be integrated with the input device and the output device, or may be separated into the input device and the output device.
 入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報を制御装置21に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力装置は、限定でなく例として、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input device is realized by any one or a combination of all types of devices capable of receiving an input from a user and transmitting information related to the input to the control device 21. The input device includes, by way of example and not limitation, hardware keys such as a touch panel, a touch display, and a keyboard, a pointing device such as a mouse, a camera (operation input via a moving image), and a microphone (operation input by voice).
 出力装置は、制御装置21で処理された処理結果を出力することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力装置は、限定でなく例として、 タッチパネル、タッチディスプレイ、スピーカ(音声出力)、レンズ(限定でなく例として3D(three dimensions)出力や、ホログラム出力)、プリンターなどを含む。 The output device is realized by any one or a combination of all types of devices capable of outputting the processing result processed by the control device 21. Output devices include, by way of example and not limitation, touch panels, touch displays, speakers (audio output), lenses (eg, without limitation 3D (three dimensions) output, hologram output), printers, etc.
 表示装置24は、フレームバッファに書き込まれた表示データに従って、表示することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。表示装置24は、限定でなく例として、タッチパネル、タッチディスプレイ、モニタ(限定でなく例として、液晶ディスプレイやOELD(organic electroluminescence display))、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中など(真空であってもよい)に画像やテキスト情報等を表示可能な装置を含む。なお、これらの表示装置24は、3Dで表示データを表示可能であってもよい。 The display device 24 is realized by any one or a combination of all kinds of devices capable of displaying according to the display data written in the frame buffer. The display device 24 is, by way of example and not limitation, a touch panel, a touch display, a monitor (as a non-limiting example, a liquid crystal display or OELD (organic electroluminescence display)), a head mounted display (HDM: Head Mounted Display), projection mapping, a hologram , An air, etc. (which may be vacuum), and a device capable of displaying images, text information, etc. Note that these display devices 24 may be able to display display data in 3D.
 入出力装置23がタッチパネルの場合、入出力装置23と表示装置24とは、略同一の大きさおよび形状で対向して配置されていても良い。 When the input / output device 23 is a touch panel, the input / output device 23 and the display device 24 may be arranged to face each other with substantially the same size and shape.
 制御装置21は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、限定でなく例として、ハードウェアに内蔵されたデータ処理装置により実現される。 The control device 21 has a circuit physically structured to execute the functions realized by the codes or instructions contained in the program, and is not limited and is, for example, a data processing device built in hardware. Is realized by
 制御装置21は、限定でなく例として、中央処理装置(CPU)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)を含む。 The controller 21 may be, by way of example and not limitation, a central processing unit (CPU), microprocessor, processor core, multiprocessor, ASIC (application-specific integrated circuit), FPGA (field programmable) (gate array) is included.
 記憶装置28は、端末20が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置28は、限定でなく例として、HDD(hard disk drive)、SSD(solid state drive)、フラッシュメモリ、RAM(random access memory)、ROM(read only memory)など各種の記憶媒体を含む。 The storage device 28 has a function of storing various programs and various data required for the terminal 20 to operate. The storage device 28 includes various storage media such as a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a random access memory (RAM), and a read only memory (ROM).
 端末20は、プログラムPを記憶装置28に記憶し、このプログラムPを実行することで、制御装置21が、制御装置21に含まれる各部としての処理を実行する。つまり、記憶装置28に記憶されるプログラムPは、端末20に、制御装置21が実行する各機能を実現させる。 The terminal 20 stores the program P in the storage device 28, and by executing the program P, the control device 21 executes processing as each unit included in the control device 21. That is, the program P stored in the storage device 28 causes the terminal 20 to realize each function executed by the control device 21.
 マイク25は、音声データの入力に利用される。スピーカ26は、音声データの出力に利用される。カメラ27は、動画像データの取得に利用される。 The microphone 25 is used to input audio data. The speaker 26 is used to output audio data. The camera 27 is used to acquire moving image data.
(2)サーバのHW構成 
 サーバ10は、制御装置11(CPU)、記憶装置15、通信I/F14(インタフェース)、入出力装置12、ディスプレイ13を備える。サーバ10のHWの各構成要素は、限定でなく例として、バスBを介して相互に接続される。
(2) HW configuration of server
The server 10 includes a control device 11 (CPU), a storage device 15, a communication I / F 14 (interface), an input / output device 12, and a display 13. The HW components of the server 10 are interconnected via the bus B, by way of example and not limitation.
 制御装置11は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、限定でなく例として、ハードウェアに内蔵されたデータ処理装置により実現される。 The control device 11 has a circuit physically structured to execute functions realized by codes or instructions contained in a program, and is not limited and is, for example, a data processing device built in hardware. Is realized by
 制御装置11は、代表的には中央処理装置(CPU)、であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGAであってもよい。ただし、本開示において、制御装置11は、これらに限定されない。 The control device 11 is typically a central processing unit (CPU), and may be a microprocessor, processor core, multiprocessor, ASIC, or FPGA. However, in the present disclosure, the control device 11 is not limited to these.
 記憶装置15は、サーバ10が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置15は、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。ただし、本開示において、記憶装置15は、これらに限定されない。 The storage device 15 has a function of storing various programs and various data required for the server 10 to operate. The storage device 15 is realized by various storage media such as an HDD, an SSD, and a flash memory. However, in the present disclosure, the storage device 15 is not limited to these.
 通信I/F14は、ネットワーク30を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F14は、ネットワーク30を介して、端末20との通信を実行する機能を有する。通信I/F14は、各種データを制御装置11からの指示に従って、端末20に送信する。また、通信I/F14は、端末20から送信された各種データを受信し、制御装置11に伝達する。 The communication I / F 14 transmits and receives various data via the network 30. The communication may be performed by wire or wireless, and any communication protocol may be used as long as communication with each other can be performed. The communication I / F 14 has a function of executing communication with the terminal 20 via the network 30. The communication I / F 14 transmits various data to the terminal 20 in accordance with an instruction from the control device 11. The communication I / F 14 receives various data transmitted from the terminal 20 and transmits the data to the control device 11.
 入出力装置12は、サーバ10に対する各種操作を入力する装置により実現される。入出力装置12は、ユーザからの入力を受け付けて、当該入力に係る情報を制御装置11に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入出力装置12は、代表的にはキーボード等に代表されるハードウェアキーや、マウス等のポインティングデバイスで実現される。なお、入出力装置12、限定でなく例として、タッチパネルやカメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含んでいてもよい。ただし、本開示において、入出力装置12は、これらに限定されない。 The input / output device 12 is realized by a device that inputs various operations on the server 10. The input / output device 12 is realized by any one or a combination of all types of devices capable of receiving input from a user and transmitting information related to the input to the control device 11. The input / output device 12 is typically realized by a hardware key represented by a keyboard or the like, or a pointing device such as a mouse. The input / output device 12 may include a touch panel, a camera (operation input via a moving image), and a microphone (operation input by voice) as an example, without limitation. However, in the present disclosure, the input / output device 12 is not limited to these.
 ディスプレイ13は、代表的にはモニタ(限定でなく例として、液晶ディスプレイやOELD(organic electroluminescence display))で実現される。なお、ディスプレイ13は、ヘッドマウントディスプレイ(HDM)などであってもよい。なお、これらのディスプレイ13は、3Dで表示データを表示可能であってもよい。ただし、本開示において、ディスプレイ13は、これらに限定されない。 The display 13 is typically implemented by a monitor (for example, a liquid crystal display or an organic electroluminescence display (OELD) as an example and not by way of limitation). The display 13 may be a head mounted display (HDM) or the like. Note that these displays 13 may be able to display display data in 3D. However, in the present disclosure, the display 13 is not limited to these.
 サーバ10は、プログラムPを記憶装置15に記憶し、このプログラムPを実行することで、制御装置11が、制御装置11に含まれる各部としての処理を実行する。つまり、記憶装置15に記憶されるプログラムPは、サーバ10に、制御装置11が実行する各機能を実現させる。 The server 10 stores the program P in the storage device 15, and by executing the program P, the control device 11 executes processing as each unit included in the control device 11. That is, the program P stored in the storage device 15 causes the server 10 to realize each function executed by the control device 11.
 本開示の各実施形態においては、端末20および/またはサーバ10のCPUがプログラムPを実行することにより、実現するものとして説明する。 In each embodiment of this indication, CPU of terminal 20 and / or server 10 explains as what is realized by running program P.
 なお、端末20の制御装置21、および/または、サーバ10の制御装置11は、CPUだけでなく、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。 The control device 21 of the terminal 20 and / or the control device 11 of the server 10 is not only a CPU but also a logic circuit formed in an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)), etc. Each process may be realized by (hardware) or a dedicated circuit. In addition, these circuits may be realized by one or more integrated circuits, and the plurality of processes shown in each embodiment may be realized by one integrated circuit. Also, LSI may be called VLSI, super LSI, ultra LSI, or the like depending on the degree of integration.
 また、本開示の各実施形態のプログラムP(ソフトウェアプログラム/コンピュータプログラム)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。 記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。 In addition, the program P (software program / computer program) of each embodiment of the present disclosure may be provided as stored in a computer readable storage medium. The storage medium can store the program in the “non-transitory tangible medium”.
 記憶媒体は適切な場合、1つまたは複数の半導体ベースの、または他の集積回路(IC)(限定でなく例として、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、プログラムPを記憶可能であれば、どのようなデバイスまたは媒体であってもよい。 The storage medium is, where appropriate, one or more semiconductor-based or other integrated circuits (ICs) (for example but not limited to field programmable gate arrays (FPGAs) or application specific ICs (ASICs) etc. Hard disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic disk A tape, solid state drive (SSD), RAM drive, secure digital card or drive, any other suitable storage medium, or any suitable combination of two or more of these can be included. The storage medium may be volatile, non-volatile, or a combination of volatile and non-volatile, as appropriate. The storage medium is not limited to these examples, and may be any device or medium as long as the program P can be stored.
 サーバ10および/または端末20は、記憶媒体に記憶されたプログラムPを読み出し、読み出したプログラムPを実行することによって、各実施形態に示す複数の機能部の機能を実現することができる。 The server 10 and / or the terminal 20 can realize the functions of the plurality of functional units shown in each embodiment by reading the program P stored in the storage medium and executing the read program P.
 また、本開示のプログラムPは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバ10および/または端末20に提供されてもよい。サーバ10および/または端末20は、限定でなく例として、インターネット等を介してダウンロードしたプログラムPを実行することにより、各実施形態に示す複数の機能部の機能を実現する。 Also, the program P of the present disclosure may be provided to the server 10 and / or the terminal 20 via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. The server 10 and / or the terminal 20 implement the functions of the plurality of functional units shown in each embodiment by executing the program P downloaded via the Internet etc. as an example and not by way of limitation.
 また、本開示の各実施形態は、プログラムPが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 サーバ10および/または端末20における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
Each embodiment of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the program P is embodied by electronic transmission.
At least part of the processing in the server 10 and / or the terminal 20 may be realized by cloud computing configured by one or more computers.
 端末20における処理の少なくとも一部を、サーバ10により行う構成としてもよい。この場合、端末20の制御装置21の各機能部の処理のうち少なくとも一部の処理を、サーバ10で行う構成としてもよい。 The configuration may be such that at least a part of the processing in the terminal 20 is performed by the server 10. In this case, at least a part of the processing of each functional unit of the control device 21 of the terminal 20 may be performed by the server 10.
 サーバ10における処理の少なくとも一部を、端末20により行う構成としてもよい。この場合、サーバ10の制御装置11の各機能部の処理のうち少なくとも一部の処理を、端末20で行う構成としてもよい。 The terminal 20 may perform at least a part of the processing in the server 10. In this case, at least a part of the processing of each functional unit of the control device 11 of the server 10 may be performed by the terminal 20.
 明示的な言及のない限り、本開示の実施形態における判定の構成は必須でなく、判定条件を満たした場合に所定の処理が動作されたり、判定条件を満たさない場合に所定の処理がされたりしてもよい。 Unless explicitly stated, the configuration of the determination in the embodiment of the present disclosure is not essential, and the predetermined process is operated when the determination condition is satisfied, or the predetermined process is performed when the determination condition is not satisfied. You may
 なお、本開示のプログラムは、限定でなく例として、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装される。 Note that the program of the present disclosure is not limited and is, for example, a script language such as ActionScript and JavaScript (registered trademark), an object-oriented programming language such as Objective-C and Java (registered trademark), and a markup language such as HTML5. It is implemented using.
<第1の実施形態>
 第1の実施形態は、原画像において切り抜く領域(範囲)の輪郭を修正するための点であって、当該輪郭上の点である編集点の数を、画像を拡大表示した際に、増加させて表示させる形態である。第1の実施形態によれば、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる。なお、第1の実施形態に記載の内容は、後述する他の各実施形態のいずれにも適用可能である。
First Embodiment
The first embodiment is a point for correcting the outline of the cutout region (range) in the original image, and the number of editing points that are points on the outline is increased when the image is enlarged and displayed. It is a form to be displayed. According to the first embodiment, the area of the object to be cut out from the image can be specified with relatively high accuracy and ease. The contents described in the first embodiment can be applied to any of the other embodiments described later.
<機能構成>
(1)端末の機能構成
<Functional configuration>
(1) Functional configuration of terminal
 図1に示すように、端末20は、制御装置21により実現される機能として、受付部201、表示制御部202、画像処理部203、及び制御部204を有する。 As illustrated in FIG. 1, the terminal 20 includes a reception unit 201, a display control unit 202, an image processing unit 203, and a control unit 204 as functions implemented by the control device 21.
 受付部201は、ユーザからの操作を受け付ける。受付部201は、例えば、表示されている原画像において切り抜く領域の輪郭を指定する操作等を受け付ける。 The receiving unit 201 receives an operation from a user. The receiving unit 201 receives, for example, an operation or the like for designating an outline of an area to be cut out in the displayed original image.
 表示制御部202は、画像処理部203またはサーバ10からの指示に従い、画像をトリミングする際の表示画面を、端末20の画面に表示させる。表示制御部202は、例えば、画像において切り抜く領域(範囲)の輪郭を修正するための点であって、当該輪郭上の点である編集点を複数表示させる。また、表示制御部202は、ユーザの操作に応答して、当該画像の少なくとも一部を拡大して表示させるとともに、編集点の数を増加させて表示させる。 The display control unit 202 displays a display screen when trimming an image on the screen of the terminal 20 according to an instruction from the image processing unit 203 or the server 10. The display control unit 202 displays, for example, a plurality of editing points which are points for correcting the outline of the cutout area (range) in the image and which are points on the outline. Further, in response to the user's operation, the display control unit 202 enlarges and displays at least a part of the image, and increases and displays the number of editing points.
 画像処理部203は、複数の編集点により指定される輪郭内の画像を切り抜く画像処理を行う。 The image processing unit 203 performs image processing to cut out an image in an outline designated by a plurality of editing points.
 制御部204は、画像処理部203により切り抜かれた画像を含むコンテンツを生成し、サーバ10に送信する。
(2)サーバの機能構成
 図1に示すように、サーバ10は、制御装置11により実現される機能として、取得部101、表示制御部102、及び制御部103を有する。
The control unit 204 generates content including the image cut out by the image processing unit 203 and transmits the generated content to the server 10.
(2) Functional Configuration of Server As shown in FIG. 1, the server 10 includes an acquisition unit 101, a display control unit 102, and a control unit 103 as functions implemented by the control device 11.
 取得部101は、端末20からのデータを取得する。 The acquisition unit 101 acquires data from the terminal 20.
 表示制御部102は、端末20の画面の表示を制御する。 The display control unit 102 controls the display of the screen of the terminal 20.
 制御部103は、端末20から受信したコンテンツを、例えば、SNSのインスタントメッセージングサービス等で利用可能なスタンプ等として、各端末20のユーザに販売する。
<処理>
 次に、図2を参照し、端末20において画像の一部分を切り抜く際の処理の一例について説明する。図2は、画像の一部分を切り抜く際の処理の一例を示すフローチャートである。図3Aは、端末20における原画像の表示例について説明する図である。図3Bは、端末20における切り抜き範囲の確認画面の表示例について説明する図である。
The control unit 103 sells the content received from the terminal 20 to the user of each terminal 20, for example, as a stamp or the like that can be used in an SNS instant messaging service or the like.
<Processing>
Next, with reference to FIG. 2, an example of processing when cutting out a part of an image in the terminal 20 will be described. FIG. 2 is a flowchart showing an example of processing when cutting out a part of an image. FIG. 3A is a view for explaining a display example of an original image on the terminal 20. FIG. FIG. 3B is a view for explaining a display example of a confirmation screen of the clipping range in the terminal 20.
 ステップS1において、端末20の受付部201は、ユーザから、画像を選択する操作を受け付ける。 In step S1, the receiving unit 201 of the terminal 20 receives an operation of selecting an image from the user.
 続いて、端末20の表示制御部202は、選択された画像(「第1画像」)を画面に表示させる(ステップS2)。ここで、図3Aに示すように、例えば、端末20において予め保存されている画像、または端末20にて撮影した画像が表示される。図3Aの例では、犬301の画像がユーザに選択され、表示されている。 Subsequently, the display control unit 202 of the terminal 20 displays the selected image ("first image") on the screen (step S2). Here, as shown in FIG. 3A, for example, an image stored in advance in the terminal 20 or an image captured by the terminal 20 is displayed. In the example of FIG. 3A, the image of the dog 301 is selected by the user and displayed.
 続いて、端末20の受付部201、及び表示制御部202は、ユーザからの操作により、当該選択された画像における切り抜き範囲を編集する(ステップS3)。 Subsequently, the reception unit 201 of the terminal 20 and the display control unit 202 edit the cutout range in the selected image according to the operation from the user (step S3).
 続いて、端末20の画像処理部203は、ユーザの操作により、編集された切り抜き範囲内の画像(「第2画像」)をトリミングする(ステップS4)。図3Bの例では、編集された切り抜き範囲外の領域の輝度を下げることにより、編集された切り抜き範囲内である犬301の顔の部分301Aが強調されて表示されている。図3Bの例では、確認ボタン302がタップされると、編集された切り抜き範囲内である部分301Aの画像が、切り抜かれて保存される。 Subsequently, the image processing unit 203 of the terminal 20 trims the image (“second image”) within the edited clipping range by the operation of the user (step S4). In the example of FIG. 3B, the face portion 301A of the dog 301 within the edited clipping range is highlighted and displayed by lowering the luminance of the area outside the edited clipping range. In the example of FIG. 3B, when the confirmation button 302 is tapped, the image of the portion 301A that is within the edited cutout range is cut out and stored.
 ≪第1実施形態のトリミング処理≫
 次に、図4乃至図7を参照し、ステップS3の、ユーザからの操作により切り抜き範囲を編集する際の処理について説明する。図4は、切り抜き範囲を編集する際の処理の一例を示すフローチャートである。図5は、画像が拡大表示される前の編集点を表示させる方法の一例について説明する図である。図6は、画像が拡大表示された際の編集点の数を増加させて表示させる方法の一例について説明する図である。図7は、画像が拡大表示された後に縮小表示された際の編集点の数を減少させて表示させる方法の一例について説明する図である。
«Trimming process of the first embodiment»
Next, with reference to FIG. 4 to FIG. 7, the process of editing the clipping range by the operation from the user in step S3 will be described. FIG. 4 is a flowchart showing an example of processing when editing the cutout range. FIG. 5 is a diagram for explaining an example of a method of displaying an editing point before an image is enlarged and displayed. FIG. 6 is a diagram for explaining an example of a method of increasing the number of editing points when an image is enlarged and displayed. FIG. 7 is a diagram for explaining an example of a method of reducing and displaying the number of editing points when an image is enlarged and displayed and then reduced.
 ステップS101において、受付部201は、ユーザの操作に応答して、表示されている原画像において切り抜く領域の輪郭を取得する。 In step S101, in response to the user's operation, the reception unit 201 acquires the outline of the cutout area in the displayed original image.
 続いて、表示制御部202は、当該輪郭上に、複数の編集点を表示させる(ステップS102)。ここで、表示制御部202は、例えば、ユーザが画面を指またはマウスカーソルでなぞる操作を行うと、ユーザによりなぞられた各画素を通る線を当該輪郭とする。図5の例では、互いに隣り合う編集点401及び編集点402等が輪郭400上に表示されている。ここで、表示制御部202は、例えば、輪郭上に、当該輪郭上における所定の間隔で編集点を表示してもよい。または、表示制御部202は、例えば、隣り合う2つの編集点の間の当該輪郭上の長さが第1閾値(例えば、6mm)以上離れた位置となり、かつ各編集点が当該輪郭上の特徴点の位置となる位置に編集点をそれぞれ表示してもよい。なお、輪郭上の特徴点については後述する。 Subsequently, the display control unit 202 displays a plurality of editing points on the contour (step S102). Here, for example, when the user performs an operation of tracing the screen with a finger or a mouse cursor, the display control unit 202 sets a line passing through each pixel traced by the user as the contour. In the example of FIG. 5, the editing point 401 and the editing point 402 etc. adjacent to each other are displayed on the outline 400. Here, for example, the display control unit 202 may display the editing points on the contour at predetermined intervals on the contour. Alternatively, in the display control unit 202, for example, the length on the contour between two adjacent editing points is at a position separated by a first threshold (for example, 6 mm) or more, and each editing point is a feature on the contour The editing points may be displayed at the positions of the points. The feature points on the contour will be described later.
 続いて、受付部201は、表示されている原画像を拡大するための操作をユーザから受け付ける(ステップS103)。ここで、受付部201は、例えば、タッチパネル画面上に親指、及び人差し指等を乗せ、二本の指で押し広げるピンチアウト操作等を受け付ける。 Subsequently, the reception unit 201 receives an operation for enlarging the displayed original image from the user (step S103). Here, the reception unit 201, for example, places a thumb, a forefinger, and the like on the touch panel screen, and receives a pinch-out operation and the like that are spread by two fingers.
 続いて、表示制御部202は、表示されている原画像を拡大して表示させるとともに、編集点の数を増加させて表示させる(ステップS104)。 Subsequently, the display control unit 202 enlarges and displays the displayed original image, and increases and displays the number of editing points (step S104).
 図6の例では、表示制御部202は、図5の画像が拡大表示され、編集点401と編集点402との間の輪郭上の長さが上述した第1閾値以上となっている場合、編集点401と編集点402との間の輪郭上に、編集点403を追加して表示させている。また、図6の例では、表示制御部202は、編集点401と編集点402との間の輪郭上で、編集点401と編集点402とからそれぞれ輪郭上の長さが第2閾値(例えば、3mm)以上離れた所定の位置に、編集点403を追加して表示させている。 In the example of FIG. 6, when the image of FIG. 5 is enlarged and displayed, and the length on the contour between the editing point 401 and the editing point 402 is equal to or more than the above-described first threshold, the display control unit 202 An editing point 403 is additionally displayed on the contour between the editing point 401 and the editing point 402. Further, in the example of FIG. 6, the display control unit 202 is configured such that the length on the contour from the editing point 401 and the editing point 402 on the contour between the editing point 401 and the editing point 402 is a second threshold (for example, An edit point 403 is additionally displayed at a predetermined position separated by 3 mm or more.
 表示制御部202は、編集点403を、編集点401から編集点402までの輪郭上の中間に追加してもよい。または、表示制御部202は、編集点403を、編集点401から編集点402までの輪郭上の特徴点に追加してもよい。ここで、輪郭上の特徴点とは、当該輪郭の曲がり具合の特徴を表す点であり、例えば、当該輪郭を代数曲線にて表した場合の尖点等の特異点、及び当該代数曲線における曲率の極値点等を、輪郭上の特徴点として用いてもよい。 The display control unit 202 may add the editing point 403 to the middle of the outline from the editing point 401 to the editing point 402. Alternatively, the display control unit 202 may add the editing point 403 to the feature points on the contour from the editing point 401 to the editing point 402. Here, the feature point on the contour is a point representing a feature of the degree of curvature of the contour, for example, a singular point such as a cusp when the contour is represented by an algebraic curve, and a curvature of the algebraic curve The extreme point or the like of may be used as a feature point on the contour.
 続いて、受付部201は、編集点の位置を画面上の任意の位置に移動させる操作をユーザから受け付ける(ステップS105)。ここで、受付部201は、例えば、タッチパネル画面上の編集点に指で触れた状態で当該指を滑らせるスライド操作等を受け付ける。 Subsequently, the receiving unit 201 receives from the user an operation to move the position of the editing point to an arbitrary position on the screen (step S105). Here, the receiving unit 201 receives, for example, a slide operation for sliding the finger in a state where the editing point on the touch panel screen is touched with the finger.
 続いて、表示制御部202は、当該操作に応答して、操作された編集点の位置を移動させる(ステップS106)。ここで、表示制御部202は、例えば、操作された編集点を、スライド操作等により指が移動された位置まで移動させるとともに、当該操作された編集点から、輪郭上の長さが第3閾値(例えば、1cm)以下である1以上の他の編集点(以下で「周辺の編集点」との称する。)も、当該操作された編集点の移動方向に従った方向に移動させてもよい。この場合、表示制御部202は、例えば、周辺の編集点の移動距離は、当該操作された編集点の移動距離に比例し、当該操作された編集点から当該周辺の編集点までの輪郭上の長さに反比例するようにしてもよい。 Subsequently, in response to the operation, the display control unit 202 moves the position of the operated editing point (step S106). Here, the display control unit 202 moves, for example, the operated editing point to a position at which the finger is moved by a slide operation or the like, and the length on the outline from the operated editing point is the third threshold One or more other editing points (hereinafter referred to as “peripheral editing points”) having a size of 1 cm or less (for example, 1 cm or less) may also be moved in a direction according to the movement direction of the operated editing point . In this case, for example, the display control unit 202 moves the movement distance of the peripheral editing point in proportion to the movement distance of the operated editing point, and the display control unit 202 moves on the contour from the operated editing point to the peripheral editing point. It may be inversely proportional to the length.
 続いて、表示制御部202は、移動後の編集点を通る輪郭を算出し、算出した変更後の輪郭を表示させる(ステップS107)。ここで、表示制御部202は、移動後の編集点を通る輪郭を、現在表示されている各編集点を通る代数曲線として算出してもよい。または、表示制御部202は、移動後の編集点を通る輪郭を、現在表示されている各編集点を通る直線等として算出してもよい。 Subsequently, the display control unit 202 calculates an outline passing through the moved editing point, and displays the calculated changed outline (step S107). Here, the display control unit 202 may calculate the contour passing through the moved editing point as an algebraic curve passing through each currently displayed editing point. Alternatively, the display control unit 202 may calculate an outline passing through the moved editing point as a straight line passing through each editing point currently displayed.
 続いて、表示制御部202は、現在表示されている編集点、及び変更後の輪郭に基づいて、表示させる編集点の追加、または削除を行う(ステップS108)。ここで、表示制御部202は、例えば、編集点の移動により、隣り合う2つの編集点の間の当該輪郭上の長さが第4閾値(例えば、1cm)以上離れた位置となる場合、各編集点が当該輪郭上の特徴点の位置となる位置に編集点を追加する。また、表示制御部202は、編集点の移動により、隣り合う2つの編集点の間の当該輪郭上の長さが上述した第2閾値未満の位置となる場合、当該隣り合う2つの編集点のうちの一方を削除する(非表示とする)。 Subsequently, the display control unit 202 adds or deletes the editing point to be displayed based on the editing point currently displayed and the contour after the change (step S108). Here, for example, when the length on the contour between two adjacent editing points is separated by a fourth threshold (for example, 1 cm) or more due to the movement of the editing points, the display control unit 202 An edit point is added at a position where the edit point is the position of the feature point on the contour. In addition, when the length on the contour between the two adjacent editing points is less than the above-described second threshold due to the movement of the editing point, the display control unit 202 sets the adjacent two editing points Delete one of them (hide it).
 続いて、受付部201は、表示されている原画像を縮小するための操作をユーザから受け付ける(ステップS109)。ここで、受付部201は、例えば、タッチパネル画面上に親指、及び人差し指等を乗せ、二本の指でつまむような動作をするピンチイン操作等を受け付ける。 Subsequently, the receiving unit 201 receives an operation for reducing the displayed original image from the user (step S109). Here, the reception unit 201 receives, for example, a pinch-in operation or the like in which a thumb, a forefinger, and the like are placed on the touch panel screen and a pinching operation is performed by two fingers.
 続いて、表示制御部202は、拡大して表示されている原画像を縮小して表示させるとともに、編集点の数を減少させて表示させる(ステップS110)。 Subsequently, the display control unit 202 reduces and displays the original image displayed in an enlarged size, and reduces the number of editing points and displays the reduced size (step S110).
 ここで、表示制御部202は、ステップS105の編集点の位置を移動させる操作に基づいて位置が変更された編集点は表示を継続し、ステップS105の編集点の位置を移動させる操作によっては位置が変更されていない編集点のみ数を減少させて表示させてもよい。これにより、画像を縮小した場合でも、変更後の輪郭の特徴点等となっている、ユーザ操作により位置が変更された編集点の表示が継続されるため、輪郭の形状をより明確にユーザに表示することができる。 Here, the display control unit 202 continues to display the editing point whose position has been changed based on the operation of moving the position of the editing point in step S105, and the position is changed depending on the operation of moving the position of the editing point in step S105. The number of edit points not changed may be reduced and displayed. Thus, even when the image is reduced, the display of the editing point whose position has been changed by the user operation continues, which is the feature point of the changed outline, etc. It can be displayed.
 なお、この場合、表示制御部202は、例えば、ステップS105の編集点の位置を移動させる操作に基づいて位置が変更された編集点としては、例えば、ユーザにより操作をされた一の編集点のみとしてもよい。または、表示制御部202は、当該一の編集点に加え、ステップS106において当該一の編集点の移動に合わせて自動で移動させた当該一の編集点の周辺の編集点、及びステップS108で追加された編集点等を含むようにしてもよい。表示制御部202は、図7の例では、編集点601、及び編集点602等に加え、拡大表示された際に追加された後、ユーザの操作により位置が変更された編集点603も、縮小表示された際にも継続して表示させている。 In this case, for example, as the editing point whose position has been changed based on the operation of moving the position of the editing point in step S105, for example, only the one editing point operated by the user is displayed on the display control unit 202. It may be Alternatively, in addition to the one editing point, the display control unit 202 adds an editing point around the one editing point that is automatically moved according to the movement of the one editing point in step S106 and added in step S108. You may make it include the edited edit point etc. In the example shown in FIG. 7, the display control unit 202 reduces the editing point 603 and the editing point 602, etc., and also reduces the editing point 603 whose position has been changed by the user's operation after being added when enlarged and displayed. It is displayed continuously when it is displayed.
 または、表示制御部202は、ステップS105の編集点の位置を移動させる操作に基づいて位置が変更された編集点についても、数を減少させて表示させてもよい。この場合、表示制御部202は、例えば、青丸等で表示される編集点は表示しないようにしても、白線等で表示される輪郭の線は、位置が変更された編集点を通る輪郭を表示してもよい。この場合、表示制御部202は、例えば、ステップS107にて移動後の編集点を通る輪郭を代数曲線として算出して記憶しておいてもよい。そして、表示制御部202は、縮小表示された際に編集点の表示を消し、再度拡大表示された際に、記憶されている代数曲線の特徴点等となっている、ステップS105のユーザ操作により位置が変更された編集点を再度表示させる。これにより、縮小表示された際に消された編集点を、再度拡大表示であれた際に復元することができる。
<第1実施形態の効果>
 上述した第1の実施形態によれば、画像が拡大表示された際に、自動で編集点の数を増加させて表示させる。これにより、原画像中から切り抜く対象のオブジェクトの輪郭を、より容易な操作で、より精度良く指定することができる。また、操作がより容易となるため、結果的に端末20の処理負荷を軽減できるという効果も奏する。
Alternatively, the display control unit 202 may reduce the number of editing points whose position has been changed based on the operation of moving the position of the editing point in step S105, and may display the reduced number. In this case, even if the display control unit 202 does not display the editing point displayed by, for example, a blue circle, the outline of the outline displayed by the white line or the like has an outline passing through the editing point whose position has been changed. You may display it. In this case, the display control unit 202 may calculate and store, as an algebraic curve, an outline passing through the edited editing point in step S107, for example. Then, the display control unit 202 erases the display of the editing point when it is displayed in a reduced size, and when it is displayed again in a large size, it is a feature point of the stored algebraic curve or the like. Display the editing point whose position has been changed again. Thus, the editing point erased when the reduced display is performed can be restored when the enlarged display is performed again.
<Effect of First Embodiment>
According to the first embodiment described above, when the image is enlarged and displayed, the number of editing points is automatically increased and displayed. As a result, the outline of the object to be cut out from the original image can be specified more accurately by the easier operation. In addition, since the operation becomes easier, the processing load of the terminal 20 can be reduced as a result.
<第2の実施形態>
 第2の実施形態は、ユーザによる端末20の筐体を傾ける操作に応答して、原画像において切り抜く領域を指定する点を移動させて表示させる形態である。第2の実施形態によれば、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる。なお、第2の実施形態は一部を除いて第1の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。なお、第2の実施形態に記載の内容は、他の各実施形態のいずれにも適用可能である。
<ハードウェア(HW)構成>
 図8は、第2の実施形態における通信システムの構成を示す図である。図8に示すように、第2の実施形態に係る端末20は、傾きセンサ29をさらに備える。傾きセンサ29は、例えば、加速度センサ、及び角速度センサ等であり、端末20の筐体の傾きを検出するためのセンサである。
<機能構成>
 図8に示すように、第2の実施形態に係る端末20は、制御装置21により実現される機能として、傾き検出部205を有する。
Second Embodiment
In the second embodiment, in response to an operation of tilting the housing of the terminal 20 by the user, a point for designating a cutout area in the original image is moved and displayed. According to the second embodiment, the area of the object to be cut out from the image can be specified with relatively high accuracy and ease. The second embodiment is the same as the first embodiment except for a part of the second embodiment, so the description will be appropriately omitted. In the following, description of parts in common with the first embodiment will be omitted, and only different parts will be described. The contents described in the second embodiment can be applied to any of the other embodiments.
<Hardware (HW) configuration>
FIG. 8 is a diagram showing a configuration of a communication system in the second embodiment. As shown in FIG. 8, the terminal 20 according to the second embodiment further includes a tilt sensor 29. The inclination sensor 29 is, for example, an acceleration sensor, an angular velocity sensor, or the like, and is a sensor for detecting the inclination of the housing of the terminal 20.
<Functional configuration>
As shown in FIG. 8, the terminal 20 according to the second embodiment includes a tilt detection unit 205 as a function realized by the control device 21.
 傾き検出部205は、傾きセンサ29からの出力に基づいて、端末20の筐体の傾きを検出する。
<処理>
 ≪第2実施形態のトリミング処理≫
 次に、図9乃至図13を参照し、ステップS3の、ユーザからの操作により切り抜き範囲を編集する際の処理について説明する。図9は、第2実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。図10は、第1の移動点群の表示画面の一例を説明する図である。図11は、元画像をエッジ検出されたデータの一例を説明する図である。図12、及び図13は、端末20の筐体を傾けた際の移動点の移動について説明する図である。図14は、ユーザ操作による移動点の位置が固定された表示画面の一例を示す図である。図15は、第2の移動点群の表示画面の一例を説明する図である。
The tilt detection unit 205 detects the tilt of the housing of the terminal 20 based on the output from the tilt sensor 29.
<Processing>
«Triming process of the second embodiment»
Next, with reference to FIG. 9 to FIG. 13, the process of editing the clipping range by the operation from the user in step S3 will be described. FIG. 9 is a flowchart showing an example of processing when editing the cutout range according to the second embodiment. FIG. 10 is a diagram for explaining an example of a display screen of the first moving point group. FIG. 11 is a diagram for explaining an example of data in which an original image is edge-detected. 12 and 13 are diagrams for explaining the movement of the moving point when the housing of the terminal 20 is inclined. FIG. 14 is a diagram showing an example of the display screen in which the position of the movement point by the user operation is fixed. FIG. 15 is a diagram for explaining an example of a display screen of the second moving point group.
 ステップS201において、表示制御部202は、受付部201により受け付けられたユーザの操作に応答して、表示されている原画像において切り抜く領域を指定するための1以上の移動点である第1の移動点群(「第1の複数の点」)を画面の一方の側から表示させる。図10の例では、表示制御部202は、端末20の画面の上辺付近から、横方向に並べられた複数の移動点1001-1、1001-2、乃至1001-Nと、各移動点を結ぶ線1002(トリミング線)を表示させている。 In step S201, in response to the user's operation accepted by the accepting unit 201, the display control unit 202 performs a first movement, which is one or more movement points for designating an area to be cut out in the displayed original image. A point cloud ("first plurality of points") is displayed from one side of the screen. In the example of FIG. 10, the display control unit 202 connects the moving points with a plurality of moving points 1001-1, 1001-2 to 1001-N arranged in the horizontal direction from near the upper side of the screen of the terminal 20. A line 1002 (trimming line) is displayed.
 続いて、表示制御部202は、表示されている原画像のエッジを検出する(ステップS202)。ここで、表示制御部202は、例えば、画像を1次微分して勾配の大きさ(エッジの強さ)を計算し、勾配の方向からエッジの局所的方向を予測し、その方向の勾配が局所的に極大となる箇所を探す手法を用いてもよい。または、表示制御部202は、例えば、画像から求めた2次微分式でのゼロ交差を探す手法等を用いてもよい。または、その他の公知の手法を用いてもよい。図11では、図10に示す元画像をエッジ検出した結果のデータ1101の一例が示されている。図11の例では、検出されたエッジの強さが所定の閾値以上である画素が黒で示されている。表示制御部202は、検出されたエッジの強さのうち、所定の閾値以上の値のみを用いるようにしてもよい。 Subsequently, the display control unit 202 detects an edge of the displayed original image (step S202). Here, for example, the display control unit 202 first differentiates the image to calculate the magnitude of the gradient (edge strength), predicts the local direction of the edge from the gradient direction, and the gradient of that direction is You may use the method of searching for the local maximum point. Alternatively, the display control unit 202 may use, for example, a method of searching for a zero crossing in a second order differential equation obtained from an image. Alternatively, other known methods may be used. FIG. 11 shows an example of data 1101 as a result of edge detection of the original image shown in FIG. In the example of FIG. 11, the pixels whose detected edge strength is equal to or greater than a predetermined threshold are shown in black. The display control unit 202 may use only the value greater than or equal to a predetermined threshold value among the detected edge strengths.
 続いて、表示制御部202は、ユーザによる端末20の筐体を任意の方向に傾ける操作に応答して、複数の移動点1001-1、1001-2、乃至1001-Nと、各移動点を結ぶ線1002を、傾けられた方向に移動させて表示させる(ステップS203)。ここで、ユーザにより、筐体の画面が所定位置(例えば、水平位置)から大きく傾けられるほど、より速い速度で各移動点を移動させて表示させてもよい。 Subsequently, in response to the user's operation of tilting the housing of the terminal 20 in an arbitrary direction by the user, the display control unit 202 moves the plurality of moving points 1001-1, 1001-2 to 1001-N and each moving point. The connecting line 1002 is moved in the inclined direction and displayed (step S203). Here, each moving point may be moved and displayed at a higher speed as the screen of the housing is greatly inclined from the predetermined position (for example, the horizontal position) by the user.
 続いて、表示制御部202は、元画像のエッジの強さに応じた仮想的な力(粘着力または摩擦力)により、当該各移動点を当該エッジの各部分で一旦停止させて表示させる(ステップS204)。ここで、表示制御部202は、各移動点が現在位置する図10に示すような元画像上の画素の位置に対応する、図11に示すようなエッジのデータ上の画素の位置におけるエッジの強さの値を抽出する。そして、表示制御部202は、抽出したエッジの強さに応じた仮想的な力により、各移動点を一旦停止させる。 Subsequently, the display control unit 202 causes each moving point to be temporarily stopped at each portion of the edge and displayed by a virtual force (adhesive force or frictional force) corresponding to the edge strength of the original image ( Step S204). Here, the display control unit 202 sets the edge at the pixel position on the edge data as shown in FIG. 11 corresponding to the pixel position on the original image as shown in FIG. 10 where each moving point is currently located. Extract strength values. Then, the display control unit 202 temporarily stops each moving point by a virtual force corresponding to the extracted edge strength.
 また、表示制御部202は、例えば、隣り合う各移動点を通る、原画像から検出したエッジに沿った曲線又は直線により、各移動点を結ぶトリミング線を表示する。 Further, the display control unit 202 displays, for example, a trimming line connecting the moving points by a curve or a straight line along an edge detected from the original image, which passes through the adjacent moving points.
 なお、一旦停止された移動点は、筐体をさらに傾けることにより、再度移動される。この場合、表示制御部202は、例えば、ユーザにより筐体を傾けられた際、移動点に仮想的にかかる重力により当該移動点が滑り落ちる方向の力と、エッジの強さに応じた仮想的な力であるエッジ上の粘着力または摩擦力により当該移動点が当該エッジ上の位置に止まろうとする仮想的な慣性力とを算出する。そして、表示制御部202は、滑り落ちる方向の力の方が、エッジ上の位置に止まろうとする慣性力よりも大きくなった場合に、当該移動点を当該滑り落ちる方向に移動するように表示させてもよい。 The moving point once stopped is moved again by further tilting the casing. In this case, for example, when the user tilts the housing, the display control unit 202 is a virtual according to the force in the direction in which the moving point slides down due to the gravity virtually applied to the moving point and the strength of the edge. Forces of cohesion or frictional force on the edge calculate a virtual inertial force at which the moving point tries to stay at the position on the edge. Then, when the force in the direction to slide down becomes larger than the inertial force to stop at the position on the edge, the display control unit 202 causes the moving point to be displayed so as to move in the direction to slide down. Good.
 また、滑り落ちる方向の力の方が、各エッジ上の位置に止まろうとする慣性力よりも大きくなる程度に、筐体が十分に大きく傾けられている場合、移動点は当該各エッジ上で一旦停止されずに、端末20の画面の端まで移動されて表示されてもよい。 Also, if the case is tilted sufficiently large that the sliding force is greater than the inertial force trying to stay at the position on each edge, the moving point will stop once on that edge Instead, it may be moved to the edge of the screen of the terminal 20 and displayed.
 なお、ステップS203の移動点を移動させる処理、及びステップS204のエッジの強さに応じた仮想的な力により各移動点を一旦停止させる処理は、ユーザによる筐体を傾ける操作により、交互に繰り返して行われる。 The process of moving the moving point in step S203 and the process of temporarily stopping each moving point by a virtual force according to the edge strength in step S204 are alternately repeated repeatedly by the operation of tilting the case by the user. Be done.
 図12の例では、図10に示す元画像上の画素の位置に対応する、図11に示す元画像がエッジ検出されたデータ上の画素の位置におけるエッジの強さの値に応じた仮想的な力により、各移動点が一旦停止されている。図12に示す、犬301の耳の部分のエッジ上で一旦停止された移動点1201と、犬301の胴体の部分のエッジ上で一旦停止された移動点1202とでは、図11に示すように、移動点1201の方が、移動点1202よりも高い仮想的な力により一旦停止される。そのため、図12の画面が表示されている際に、さらに画面の上部を起こす姿勢となるように筐体を一定程度傾けると、移動点1201は停止されたまま、移動点1202は画面の下部方向に移動される。そして、移動点1202は、図13に示す移動点1302のように、図11に示すようなエッジの強さに従い、犬301の顔の下部の位置に移動して一旦停止される。 In the example of FIG. 12, the virtual corresponding to the value of the edge strength at the position of the pixel on the data whose edge is detected in the original image shown in FIG. 11 corresponding to the position of the pixel on the original image shown in FIG. Each movement point is temporarily stopped by a force. As shown in FIG. 11, the moving point 1201 temporarily stopped on the edge of the ear portion of the dog 301 and the moving point 1202 temporarily stopped on the edge of the trunk portion of the dog 301 shown in FIG. The movement point 1201 is temporarily stopped by a virtual force higher than the movement point 1202. Therefore, when the screen of FIG. 12 is displayed, if the housing is further inclined to a certain extent so as to raise the upper part of the screen, the moving point 1202 is in the lower direction of the screen while the moving point 1201 is stopped. Moved to Then, the moving point 1202 is moved to a position under the face of the dog 301 and temporarily stopped according to the edge strength as shown in FIG. 11 like the moving point 1302 shown in FIG.
 図12、及び図13の例では、表示制御部202は、例えば、ユーザにより筐体を傾けられた際に各移動点に仮想的にかかる重力により移動点が滑り落ちるように表示させる。そして、表示制御部202は、各移動点を結ぶ線1002上で隣り合う移動点間のエッジ上の長さが上述した第1閾値以上となっている場合、当該各移動点間のエッジ上の特徴点等の位置に、移動点を追加して表示させている。また、図12、及び図13の例では、表示制御部202は、ユーザにより、画面の上下方向に傾けられることにより、各移動点を結ぶ直線が、オブジェクトに上または下から垂れかかるように停止されて表示させる。そして、表示制御部202は、ユーザにより、画面の左右方向等に傾けられることにより、各移動点を結ぶ直線が、オブジェクトに左右から垂れかかるように停止されて表示させる。 In the example of FIG. 12 and FIG. 13, for example, when the user tilts the housing, the display control unit 202 causes the moving point to slide down due to gravity virtually applied to each moving point. Then, when the length on the edge between the adjacent moving points on the line 1002 connecting the moving points is equal to or more than the above-described first threshold, the display control unit 202 causes the edge between the moving points. Moving points are added and displayed at positions such as feature points. Further, in the example of FIG. 12 and FIG. 13, the display control unit 202 is stopped in the vertical direction of the screen by the user so that the straight line connecting the moving points hangs down on the object from above or below. To be displayed. Then, the display control unit 202 is stopped and displayed so that the straight line connecting the moving points hangs from the left and right on the object by being tilted in the horizontal direction or the like of the screen by the user.
 続いて、表示制御部202は、受付部201により当該各移動点に含まれる一の移動点がユーザによりタッチ(押下)操作されたことを検知すると(ステップS205)、タッチ操作された移動点の位置を固定する(ステップS206)。図14の例では、表示制御部202は、位置が固定された移動点を、位置が固定されていない移動点と区別できる態様で表示させている。例えば、位置が固定されていない移動点が緑の丸の場合、位置が固定された移動点を、中黒の二重丸(丸中黒)、青の丸等で表示させる。 Subsequently, when the display control unit 202 detects that the moving point included in each of the moving points is touched (pressed) by the user by the receiving unit 201 (step S205), the display control unit 202 The position is fixed (step S206). In the example of FIG. 14, the display control unit 202 displays the moving point whose position is fixed in a manner that can be distinguished from the moving point whose position is not fixed. For example, when the movement point whose position is not fixed is a green circle, the movement point whose position is fixed is displayed as a double black circle (round black), a blue circle, or the like.
 続いて、表示制御部202は、受付部201により受け付けられたユーザの操作に応答して、表示されている原画像において切り抜く領域を指定するための第2の移動点群(「第2の複数の点」)を、上述した第1の移動点群表示した画面の一方の側と向かい合う他方の側から表示させる(ステップS207)。図15の例では、第1の移動点群のうち、ステップS206の処理で位置が固定された移動点のみを表示させている。そして、端末20の画面の下辺付近から、横方向に並べられた複数の移動点1501-1、1501-2、乃至1501-Nと、各移動点を結ぶ線1502(トリミング線)を表示させている。 Subsequently, in response to the user's operation accepted by the accepting unit 201, the display control unit 202 selects a second moving point group (“the second plurality of moving point groups for specifying a clipping region in the displayed original image. The point “)” is displayed from the other side facing the one side of the screen on which the first moving point group is displayed (step S207). In the example of FIG. 15, among the first movement point group, only the movement points whose positions are fixed in the process of step S206 are displayed. Then, from near the lower side of the screen of the terminal 20, a plurality of moving points 1501-1, 1501-2 to 1501-N arranged in the horizontal direction and a line 1502 (trimming line) connecting the moving points are displayed. There is.
 続いて、第2の移動点群についても、第1の移動点群と同様に、ステップS203乃至ステップS206と同様の処理を行う(ステップS208乃至ステップS211)。これにより、上述した第1の移動点群のうち、ユーザの操作により位置が固定された移動点と、上述した第2の移動点群のうち、ユーザの操作により位置が固定された移動点とにより、切り抜く領域の輪郭が指定される。この場合、表示制御部202は、隣り合う各移動点を通る、原画像から検出したエッジに沿った曲線又は直線により、当該輪郭を算出してもよい。
<第2の実施形態の第1変形例>
 次に、図16を参照して、変形例について説明する。図16は、大まかに指定された領域内のエッジを検出した結果のデータの一例を示す図である。上述した第1の実施形態における編集点により切り抜く領域を指定する処理と、第2の実施形態による筐体の傾きに応じて移動点をエッジ上に移動させて切り抜く領域を指定する処理を組み合わせてもよい。
Subsequently, processing similar to steps S203 to S206 is performed on the second movement point group as in the first movement point group (steps S208 to S211). Thereby, among the first moving point group described above, moving points whose positions are fixed by the user's operation, and moving points whose position is fixed by the user's operation among the second moving point groups described above, and The contour of the region to be cut out is specified by. In this case, the display control unit 202 may calculate the contour by a curve or a straight line along an edge detected from the original image, which passes through adjacent movement points.
First Modified Example of Second Embodiment
Next, a modification is described with reference to FIG. FIG. 16 is a diagram showing an example of data as a result of detection of an edge in a roughly designated area. The process of specifying the cutout area by the edit point in the first embodiment described above and the process of moving the moving point on the edge and specifying the cutout area according to the inclination of the housing in the second embodiment are combined. It is also good.
 この場合、例えば、図4に示す第1の実施形態の処理により、図7に示すように切り抜く領域を大まかに指定する。そして、図9に示す第2の実施形態のステップS202の処理において、図14に示すように、元画像において当該指定された領域内1401についてのみエッジを検出する。これにより、図9に示すステップS203以降の処理において、より容易に、エッジ上に移動させて切り抜く領域を指定する操作が可能となる。なお、この場合、図9のステップS205等の、ユーザのタッチ操作により移動点の位置を固定する処理を省略してもよい。また、2つ目のトリミング線を用いる図9のステップS207乃至ステップS211の処理を省略してもよい。
<第2の実施形態の第2変形例>
 上述した第2の実施形態による筐体の傾きに応じて移動点をエッジ上に移動させて切り抜く領域を指定する処理をした後、上述した第1の実施形態における編集点により切り抜く領域を指定する処理を実行できるようにしてもよい。この場合、上述した移動点は、以下に説明するように、第1の実施形態における編集点として用いられる。
In this case, for example, by the process of the first embodiment shown in FIG. 4, the cutout region is roughly designated as shown in FIG. Then, in the process of step S202 of the second embodiment shown in FIG. 9, as shown in FIG. 14, the edge is detected only in the designated area 1401 in the original image. As a result, in the processing after step S203 shown in FIG. 9, an operation of designating an area to be moved and cut out on the edge can be more easily performed. In this case, the process of fixing the position of the moving point by the user's touch operation such as step S205 in FIG. 9 may be omitted. Further, the processing of steps S207 to S211 in FIG. 9 using the second trimming line may be omitted.
Second Modified Example of Second Embodiment
After moving the movement point on the edge according to the inclination of the casing according to the second embodiment and specifying the cutout area, the cutout area is specified according to the editing point in the first embodiment. It may be possible to execute the process. In this case, the moving point described above is used as an editing point in the first embodiment, as described below.
 まず、表示制御部202は、第2の実施形態の図9に示す処理により、筐体の傾きに応じて移動点をエッジ上に移動させて切り抜く領域を指定する。そして、表示制御部202は、例えば、上述した第1実施形態の図4に示すステップS103乃至ステップS110の処理により、原画像を拡大表示させるとともに、移動点を編集点とし、編集点の数を増加させて表示させる。そして、編集点を指で移動させる操作、または筐体を傾ける操作により、当該編集点を移動させる。
<第2実施形態の効果>
 上述した第2の実施形態によれば、筐体の傾きに応じて、原画像において切り抜く領域を指定する点を移動させて表示させる。これにより、原画像中から切り抜く対象のオブジェクトの輪郭を、より容易な操作で、より精度良く指定することができる。また、操作がより容易となるため、結果的に端末20の処理負荷を軽減できるという効果も奏する。
<第3の実施形態>
 第3の実施形態は、ユーザのフリック操作やスワイプ操作等の操作に応答して、原画像において切り抜く領域を指定する点を、原画像におけるエッジの位置まで移動させて表示させる形態である。第3の実施形態によれば、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる。なお、第3の実施形態は一部を除いて第1の実施形態、または第2の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態、または第2の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。なお、第3の実施形態に記載の内容は、他の各実施形態のいずれにも適用可能である。
<処理>
 ≪第3実施形態のトリミング処理≫
 次に、図17乃至図19を参照し、ステップS3の、ユーザからの操作により切り抜き範囲を編集する際の処理について説明する。図17は、第3実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。図18は、フリック操作により編集点を移動させて表示させる処理について説明する図である。図19A、及び図19Bは、エッジの強さに応じて編集点の移動速度が減衰され、停止させて表示させる処理について説明する図である。
First, the display control unit 202 moves the movement point on the edge according to the inclination of the housing and specifies the cutout region according to the processing illustrated in FIG. 9 of the second embodiment. Then, the display control unit 202 enlarges and displays the original image by, for example, the processing of step S103 to step S110 shown in FIG. 4 of the first embodiment described above, and sets the moving point as the editing point and the number of editing points Increase and display. Then, the editing point is moved by an operation of moving the editing point with a finger or an operation of tilting the casing.
<Effect of Second Embodiment>
According to the second embodiment described above, in accordance with the inclination of the housing, the point for specifying the cutout area in the original image is moved and displayed. As a result, the outline of the object to be cut out from the original image can be specified more accurately by the easier operation. In addition, since the operation becomes easier, the processing load of the terminal 20 can be reduced as a result.
Third Embodiment
In the third embodiment, in response to an operation such as a flick operation or swipe operation by a user, a point for specifying a cutout area in an original image is moved to a position of an edge in the original image and displayed. According to the third embodiment, the area of the object to be cut out from the image can be specified with relatively high accuracy and ease. Note that the third embodiment is the same as the first embodiment or the second embodiment except for a part thereof, and thus the description will be appropriately omitted. In the following, descriptions of parts in common with the first embodiment or the second embodiment will be omitted, and only different parts will be described. The contents described in the third embodiment are applicable to any of the other embodiments.
<Processing>
«Trimming process of the third embodiment»
Next, with reference to FIG. 17 to FIG. 19, the process of editing the clipping range by the operation from the user in step S3 will be described. FIG. 17 is a flowchart showing an example of processing when editing the cutout range according to the third embodiment. FIG. 18 is a diagram for explaining processing for moving and displaying an editing point by a flick operation. FIG. 19A and FIG. 19B are diagrams for explaining the process of causing the moving speed of the editing point to be attenuated according to the strength of the edge and causing it to be stopped and displayed.
 ステップS301において、受付部201は、ユーザの操作に応答して、表示されている原画像において切り抜く領域の輪郭を取得する。続いて、表示制御部202は、当該輪郭上に、複数の編集点を表示させる(ステップS302)。 In step S301, in response to the user's operation, the reception unit 201 acquires the outline of the cutout region in the displayed original image. Subsequently, the display control unit 202 displays a plurality of editing points on the outline (step S302).
 ここで、ステップS301、及びステップS302の処理において、上述した第1実施形態の図4に示すステップS101、及びステップS102の処理と同様に、ユーザにより指等でなぞられた輪郭を取得してもよい。または、上述した第1実施形態の図4に示すステップS103乃至ステップS110のいずれかの処理段階における、拡大表示に伴い数が増加された編集点等を表示させてもよい。または、上述した第2実施形態の図9に示すステップS201乃至ステップS211のいずれかの処理段階における移動点を、編集点として用いるようにしてもよい。 Here, in the processing of step S301 and step S302, even if the contour traced by the finger or the like by the user is acquired similarly to the processing of step S101 and step S102 shown in FIG. 4 of the first embodiment described above. Good. Alternatively, an editing point or the like whose number has been increased along with the enlarged display may be displayed at any one of the processing steps from step S103 to step S110 shown in FIG. 4 of the first embodiment described above. Alternatively, the moving point in any of the processing steps of steps S201 to S211 shown in FIG. 9 of the second embodiment described above may be used as the editing point.
 続いて、受付部201は、複数の編集点に含まれる一の編集点(以下で「第1編集点」と称する。)に対するユーザのフリック操作(またはスワイプ操作)を受け付ける(ステップS303)。ここで、フリック操作とは、例えば、タッチパネルを有する画面上で、指を素早く動かしたり、弾いたりするような操作である。また、スワイプ操作とは、タッチパネルを有する画面上で、指を滑らせるような操作である。 Subsequently, the receiving unit 201 receives the user's flick operation (or swipe operation) on one editing point (hereinafter referred to as “first editing point”) included in the plurality of editing points (step S303). Here, the flick operation is, for example, an operation of rapidly moving or flipping a finger on a screen having a touch panel. The swipe operation is an operation such as sliding a finger on a screen having a touch panel.
 続いて、表示制御部202は、第1編集点と、第1編集点の周辺の編集点(以下で「第2編集点」と称する。)とを、フリック操作の方向に移動させる(ステップS304)。ここで、表示制御部202は、フリック操作の速さに応じた速さで第1編集点を移動させ、フリック操作の速さと、第1編集点と第2編集点との輪郭上の距離とに応じた速さで、第2編集点を移動させる。なお、フリック操作の方向とは、例えば、フリック操作にて指を動かした方向である。また、フリック操作の速さとは、例えば、フリック操作にて指を動かした速さである。 Subsequently, the display control unit 202 moves the first editing point and editing points around the first editing point (hereinafter referred to as “second editing point”) in the direction of the flick operation (step S304). ). Here, the display control unit 202 moves the first editing point at a speed according to the speed of the flicking operation, and the speed of the flicking operation and the distance on the contour between the first editing point and the second editing point Move the second editing point at a speed according to. The direction of the flick operation is, for example, the direction in which the finger is moved by the flick operation. Further, the speed of the flick operation is, for example, the speed at which the finger is moved by the flick operation.
 図18の例では、表示制御部202は、フリック操作された第1編集点1801からの輪郭上の距離が所定の閾値以下、または第1編集点1801からの隣り合う編集点の数が所定の閾値以下である編集点1802、編集点1803、及び編集点1804を選択する。ここで、所定の閾値としては、少なくとも第1編集点と隣り合う他の編集点が含まれる値としてもよい。 In the example of FIG. 18, the display control unit 202 determines that the distance on the contour from the flick-operated first editing point 1801 is equal to or less than a predetermined threshold, or the number of adjacent editing points from the first editing point 1801 is predetermined. An edit point 1802, an edit point 1803 and an edit point 1804 which are equal to or less than the threshold are selected. Here, the predetermined threshold may be a value that includes at least another editing point adjacent to the first editing point.
 そして、表示制御部202は、第1編集点1801と、選択した編集点1802との輪郭上の距離を算出し、フリック操作の速さと、算出した距離とに応じた速さを大きさとし、フリック操作の方向を向きとする速度ベクトル1802Aを算出する。ここで、表示制御部202は、当該大きさを、例えば、フリック操作の速さに比例し、算出した距離に反比例した大きさとしてもよい。 Then, the display control unit 202 calculates the distance on the contour between the first editing point 1801 and the selected editing point 1802, and sets the speed according to the speed of the flick operation and the calculated distance as the magnitude, A velocity vector 1802A whose direction is the direction of operation is calculated. Here, the display control unit 202 may set the size to, for example, a size that is proportional to the speed of the flick operation and inversely proportional to the calculated distance.
 また、表示制御部202は、選択した編集点1803、及び編集点1804についても、同様にして速度ベクトル1803A、及び速度ベクトル1804Aをそれぞれ算出する。 The display control unit 202 similarly calculates the velocity vector 1803A and the velocity vector 1804A for the selected editing point 1803 and editing point 1804 as well.
 そして、表示制御部202は、第1編集点1801を、フリック操作の速さに応じた速さ、及びフリック操作の方向を有する速度ベクトル1801Aで移動させるとともに、編集点1802、編集点1803、及び編集点1804を、速度ベクトル1803A、及び速度ベクトル1804Aで移動させる。 Then, the display control unit 202 moves the first editing point 1801 by the speed vector 1801A having the speed according to the speed of the flicking operation and the direction of the flicking operation, the editing point 1802, the editing point 1803 and The editing point 1804 is moved by the velocity vector 1803A and the velocity vector 1804A.
 図18の例では、第1編集点1801からの輪郭上の距離は、編集点1802、編集点1803、及び編集点1804の順に長くなっている。この場合、速度ベクトル1802A、速度ベクトル1803A、速度ベクトル1804Aは、方向はそれぞれ同一であり、速さは、速度ベクトル1802A、速度ベクトル1803A、速度ベクトル1804Aの順に小さくなっている。 In the example of FIG. 18, the distance on the outline from the first editing point 1801 is longer in the order of the editing point 1802, the editing point 1803, and the editing point 1804. In this case, the velocity vector 1802A, the velocity vector 1803A, and the velocity vector 1804A have the same direction, and the velocity decreases in the order of the velocity vector 1802A, the velocity vector 1803A, and the velocity vector 1804A.
 続いて、表示制御部202は、移動された各編集点が表示されている原画像のエッジの位置に移動すると、元画像のエッジの強さに応じた仮想的な力(粘着力または摩擦力)により、各編集点をエッジ上の位置で停止させて表示させる(ステップS305)。ここで、表示制御部202は、原画像におけるエッジを予め検出しておいてもよい。または、表示制御部202は、移動された各編集点の移動元の位置から移動方向に沿った原画像におけるエッジのみを検出してもよい。これにより、端末20における処理負荷を軽減できる。 Subsequently, when the display control unit 202 moves to the position of the edge of the original image in which each moved editing point is displayed, a virtual force (adhesive force or frictional force corresponding to the edge strength of the original image) ) Causes each editing point to be stopped at a position on the edge and displayed (step S305). Here, the display control unit 202 may detect an edge in the original image in advance. Alternatively, the display control unit 202 may detect only an edge in the original image along the movement direction from the movement source position of each moved editing point. Thereby, the processing load on the terminal 20 can be reduced.
 ここで、表示制御部202は、例えば、フリック操作の速さと、フリック操作に応答して各編集点が移動する経路上のエッジの強さとに応じて、各編集点の移動の速さを減衰させて停止させてもよい。この場合、表示制御部202は、移動している各編集点について、図19Aに示すように、編集点1901を速度ベクトル1901Aで移動させる。そして、表示制御部202は、移動方向1902上のエッジ1903を通過する際、エッジ1903の強さに応じた仮想的な力により、編集点1901の移動の速さを減衰させる。そして、表示制御部202は、図19Bに示すように、編集点1901を、移動方向は不変であり、速度ベクトル1901Aから速さが減衰された速度ベクトル1901Bで移動させる。そして、表示制御部202は、移動方向1902上のエッジ1904の強さに応じた仮想的な力により、移動方向1902上のエッジ1904の位置で編集点1901を停止させる。 Here, for example, the display control unit 202 attenuates the moving speed of each editing point according to the speed of the flicking operation and the strength of the edge on the path along which each editing point moves in response to the flicking operation. You may make it stop. In this case, the display control unit 202 moves the editing point 1901 with the velocity vector 1901A, as shown in FIG. 19A, for each moving editing point. Then, when passing the edge 1903 in the moving direction 1902, the display control unit 202 attenuates the speed of movement of the editing point 1901 by a virtual force corresponding to the strength of the edge 1903. Then, as shown in FIG. 19B, the display control unit 202 moves the editing point 1901 with the velocity vector 1901B in which the moving direction is unchanged and the velocity is attenuated from the velocity vector 1901A. Then, the display control unit 202 stops the editing point 1901 at the position of the edge 1904 on the moving direction 1902 by a virtual force according to the strength of the edge 1904 on the moving direction 1902.
 続いて、表示制御部202は、移動後の編集点を通る輪郭を算出し、算出した変更後の輪郭を表示させる(ステップS306)。続いて、表示制御部202は、現在表示されている編集点、及び変更後の輪郭に基づいて、表示させる編集点の追加、または削除を行う(ステップS307)。なお、ステップS306乃至ステップS307の処理は、上述した第1実施形態の図4のステップS107乃至ステップS108の処理と同様でもよい。
<第3の実施形態の第1変形例>
 表示制御部202は、フリック操作等に応答して、編集点をエッジの位置まで移動させた後、ピンチアウト操作等を受け付けると、上述した第1実施形態の図4に示すステップS103乃至ステップS110の処理を行うようにしてもよい。すなわち、原画像を拡大表示させるとともに、移動点を編集点とし、編集点の数を増加させて表示させる等の処理を行う。そして、拡大表示された状態で、編集点を指で移動させるスライド操作により、当該編集点を指が離された位置まで移動させる。
<第3実施形態の効果>
 上述した第3の実施形態によれば、ユーザのフリック操作やスワイプ操作等の操作に応答して、原画像において切り抜く領域を指定する点を、原画像におけるエッジの位置まで移動させて表示させる。これにより、原画像中から切り抜く対象のオブジェクトの輪郭を、より容易な操作で、より精度良く指定することができる。また、操作がより容易となるため、結果的に端末20の処理負荷を軽減できるという効果も奏する。
Subsequently, the display control unit 202 calculates an outline passing through the moved editing point, and displays the calculated changed outline (step S306). Subsequently, the display control unit 202 adds or deletes the editing point to be displayed based on the editing point currently displayed and the contour after the change (step S307). The processes of steps S306 to S307 may be the same as the processes of steps S107 to S108 in FIG. 4 of the first embodiment described above.
First Modified Example of Third Embodiment
After the display control unit 202 moves the editing point to the position of the edge in response to the flick operation or the like, when the pinch out operation or the like is received, steps S103 to S110 shown in FIG. 4 of the first embodiment described above are performed. Processing may be performed. That is, the original image is enlarged and displayed, and the moving point is used as an editing point, and the number of editing points is increased and displayed. Then, in a state of being enlarged and displayed, the editing point is moved to a position where the finger is released by a slide operation of moving the editing point with the finger.
<Effect of Third Embodiment>
According to the third embodiment described above, in response to the user's operation such as flick operation or swipe operation, the point for specifying the cutout region in the original image is moved to the position of the edge in the original image and displayed. As a result, the outline of the object to be cut out from the original image can be specified more accurately by the easier operation. In addition, since the operation becomes easier, the processing load of the terminal 20 can be reduced as a result.
 <その他>
 なお、上述した実施形態では、端末20にインストールされたアプリケーション等において画像処理を行う例について説明したが、サーバ10において画像処理を行うようにしてもよい。この場合、例えば、端末20の受付部201は、ユーザによる操作内容をサーバ10に通知し、サーバ10の表示制御部102により端末20の表示画面の制御を行い、サーバ10の制御部103がトリミング等の画像処理を行うようにしてもよい。
<Others>
In the embodiment described above, the example in which the image processing is performed in the application or the like installed in the terminal 20 has been described, but the server 10 may perform the image processing. In this case, for example, the reception unit 201 of the terminal 20 notifies the server 10 of the content of the operation by the user, the display control unit 102 of the server 10 controls the display screen of the terminal 20, and the control unit 103 of the server 10 trims Image processing such as may be performed.
 受付部201は、「取得部」の一例である。画像処理部203は、「切り取り部」の一例である。サーバ10、及び端末20は、それぞれ、「情報処理装置」の一例である。 The reception unit 201 is an example of an “acquisition unit”. The image processing unit 203 is an example of a “cutting unit”. The server 10 and the terminal 20 are examples of the “information processing apparatus”.
 本開示の実施形態を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本開示の範囲に含まれることに留意されたい。限定でなく例として、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、各実施形態に示す構成を適宜組み合わせることとしてもよい。 Although the embodiments of the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present disclosure. By way of example and not limitation, functions, etc. included in each means, each step, etc. can be rearranged so as not to be logically contradictory, and a plurality of means, steps, etc. may be combined or divided into one. Is possible. In addition, the configurations shown in the respective embodiments may be combined as appropriate.
10 サーバ
101 取得部
102 表示制御部
103 制御部
20 端末
201 受付部
202 表示制御部
203 画像処理部
204 制御部
205 傾き検出部
10 server 101 acquisition unit 102 display control unit 103 control unit 20 terminal 201 reception unit 202 display control unit 203 image processing unit 204 control unit 205 tilt detection unit

Claims (8)

  1.  情報処理装置に、
     第1画像を表示させる第1表示ステップと、
     前記第1画像において切り抜く領域の輪郭を取得するステップと、
     前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させる第2表示ステップと、
     ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる第3表示ステップと、
     前記複数の編集点により指定される輪郭内の第2画像を切り抜くステップと、
    を実行させるプログラム。
    In the information processing apparatus,
    A first display step for displaying a first image;
    Acquiring an outline of an area to be cut out in the first image;
    A second display step of displaying a plurality of editing points for correcting the contour on the contour respectively;
    A third display step of enlarging and displaying the first image and increasing the number of the plurality of editing points in response to a user operation;
    Cropping a second image within the contour specified by the plurality of editing points;
    A program that runs
  2.  前記第2表示ステップは、第1編集点と第2編集点とを表示させ、
     前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上の長さが第1閾値以上の場合、前記第1編集点から前記第2編集点までの前記輪郭上に、第3編集点を表示させる、
    請求項1に記載のプログラム。
    The second display step displays a first editing point and a second editing point.
    In the third display step, when the length on the contour from the first editing point to the second editing point is equal to or more than a first threshold, on the contour from the first editing point to the second editing point To display the third edit point,
    The program according to claim 1.
  3.  前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上で、前記第1編集点と前記第2編集点とからそれぞれ前記輪郭上の長さが第2閾値以上離れた位置に、前記第3編集点を表示させる、
    請求項2に記載のプログラム。
    In the third display step, on the contour from the first editing point to the second editing point, a length on the contour from the first editing point and the second editing point is equal to or more than a second threshold. Display the third editing point at a distant position,
    The program according to claim 2.
  4.  前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上の特徴点に、前記第3編集点を表示させる、
    請求項2または3に記載のプログラム。
    The third display step displays the third editing point at the feature points on the contour from the first editing point to the second editing point.
    The program according to claim 2 or 3.
  5.  前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上の中間の点に、前記第3編集点を表示させる、
    請求項2または3に記載のプログラム。
    The third display step displays the third editing point at an intermediate point on the contour from the first editing point to the second editing point.
    The program according to claim 2 or 3.
  6.  ユーザの操作に応答して、前記第3表示ステップにより表示された前記複数の編集点のうち、1以上の編集点の位置を変更するステップと、
     ユーザの操作に応答して、前記第3表示ステップにより拡大して表示された前記第1画像を縮小して表示させるとともに、前記変更するステップにより位置が変更された編集点は表示を継続し、前記変更するステップにより位置が変更されていない編集点の数を減少させて表示させる第4表示ステップと、
    を実行する請求項1から5のいずれか一項に記載のプログラム。
    Changing the position of one or more editing points among the plurality of editing points displayed by the third display step in response to a user operation;
    In response to the user's operation, the first image enlarged and displayed in the third display step is reduced and displayed, and the editing point whose position is changed in the changing step continues to be displayed, A fourth display step of reducing and displaying the number of editing points whose positions have not been changed by the changing step;
    The program according to any one of claims 1 to 5, which executes.
  7.  情報処理装置が、
     第1画像を表示させる第1表示ステップと、
     前記第1画像において切り抜く領域の輪郭を取得するステップと、
     前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させる第2表示ステップと、
     ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる第3表示ステップと、
     前記第1画像における前記複数の編集点により指定される輪郭内の第2画像を切り抜くステップと、
    を実行する情報処理方法。
    The information processing apparatus
    A first display step for displaying a first image;
    Acquiring an outline of an area to be cut out in the first image;
    A second display step of displaying a plurality of editing points for correcting the contour on the contour respectively;
    A third display step of enlarging and displaying the first image and increasing the number of the plurality of editing points in response to a user operation;
    Cropping a second image within the contour specified by the plurality of editing points in the first image;
    Information processing method to perform.
  8.  表示されている第1画像において切り抜く領域の輪郭を取得する取得部と、
     前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させ、ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる表示制御部と、
     前記第1画像における前記複数の編集点により指定される輪郭内の第2画像を切り抜く切り抜き部と、
    を有する情報処理装置。
    An acquisition unit for acquiring an outline of an area to be cut out in the displayed first image;
    A plurality of editing points for correcting the contour are respectively displayed on the contour, and in response to a user operation, the first image is enlarged and displayed, and the number of the plurality of editing points is increased. A display control unit that causes the display to be displayed;
    A cutout that cuts out a second image in an outline specified by the plurality of editing points in the first image;
    An information processing apparatus having
PCT/JP2017/034438 2017-09-25 2017-09-25 Program, information processing method, and information processing device WO2019058539A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019542940A JP6995867B2 (en) 2017-09-25 2017-09-25 Programs, information processing methods, and information processing equipment
PCT/JP2017/034438 WO2019058539A1 (en) 2017-09-25 2017-09-25 Program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/034438 WO2019058539A1 (en) 2017-09-25 2017-09-25 Program, information processing method, and information processing device

Publications (1)

Publication Number Publication Date
WO2019058539A1 true WO2019058539A1 (en) 2019-03-28

Family

ID=65809624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034438 WO2019058539A1 (en) 2017-09-25 2017-09-25 Program, information processing method, and information processing device

Country Status (2)

Country Link
JP (1) JP6995867B2 (en)
WO (1) WO2019058539A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147131A (en) * 1995-11-24 1997-06-06 Dainippon Screen Mfg Co Ltd Image layout device having cutting function of image parts

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147131A (en) * 1995-11-24 1997-06-06 Dainippon Screen Mfg Co Ltd Image layout device having cutting function of image parts

Also Published As

Publication number Publication date
JP6995867B2 (en) 2022-01-17
JPWO2019058539A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
EP2701152B1 (en) Media object browsing in a collaborative window, mobile client editing, augmented reality rendering.
EP3091426B1 (en) User terminal device providing user interaction and method therefor
KR102137240B1 (en) Method for adjusting display area and an electronic device thereof
CN110100251B (en) Apparatus, method, and computer-readable storage medium for processing document
EP2811731B1 (en) Electronic device for editing dual image and method thereof
KR20130123171A (en) Method for moving screen and an electronic device thereof
KR20160141807A (en) Adaptive user interface pane manager
USRE47812E1 (en) Adaptive determination of information display
US9357132B2 (en) Video rolling shutter correction for lens movement in optical image stabilization cameras
US10810801B2 (en) Method of displaying at least one virtual object in mixed reality, and an associated terminal and system
CN110908554B (en) Long screenshot method and terminal device
CN104461312A (en) Display control method and electronic equipment
KR20140113056A (en) Method and apparatus for controlling zoom function in an electronic device
KR102113509B1 (en) Method for controlling a virtual keypad and an electronic device thereof
US10261602B2 (en) Hop navigation
TW201926968A (en) Program and information processing method and information processing device capable of easily changing choice of content to be transmitted
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
JP7029913B2 (en) Programs, information processing methods, and information processing equipment
CN111010528A (en) Video call method, mobile terminal and computer readable storage medium
JP6995867B2 (en) Programs, information processing methods, and information processing equipment
JP6918660B2 (en) Programs, information processing methods, and information processing equipment
KR20130121370A (en) Method for improving touch response and an electronic device thereof
CN113168286A (en) Terminal, control method for the terminal, and recording medium recording program for implementing the method
KR20200033640A (en) Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method
WO2023210352A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17926090

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019542940

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17926090

Country of ref document: EP

Kind code of ref document: A1