JP6995867B2 - Programs, information processing methods, and information processing equipment - Google Patents

Programs, information processing methods, and information processing equipment Download PDF

Info

Publication number
JP6995867B2
JP6995867B2 JP2019542940A JP2019542940A JP6995867B2 JP 6995867 B2 JP6995867 B2 JP 6995867B2 JP 2019542940 A JP2019542940 A JP 2019542940A JP 2019542940 A JP2019542940 A JP 2019542940A JP 6995867 B2 JP6995867 B2 JP 6995867B2
Authority
JP
Japan
Prior art keywords
point
displayed
image
editing
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019542940A
Other languages
Japanese (ja)
Other versions
JPWO2019058539A1 (en
Inventor
フレデリック フォゲル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Corp
Original Assignee
Line Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp filed Critical Line Corp
Publication of JPWO2019058539A1 publication Critical patent/JPWO2019058539A1/en
Application granted granted Critical
Publication of JP6995867B2 publication Critical patent/JP6995867B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本開示は、プログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to programs, information processing methods, and information processing devices.

従来、ユーザの操作により、画像の一部分を切り抜き(切り取り、トリミング)できるツール(プログラム)が知られている(例えば、特許文献1、非特許文献1を参照)。このツールにおいて、例えば、切り抜く領域は、ユーザにより指やマウスカーソル等で当該領域の輪郭をなぞる操作により指定される。 Conventionally, a tool (program) capable of cropping (cutting and trimming) a part of an image by a user's operation is known (see, for example, Patent Document 1 and Non-Patent Document 1). In this tool, for example, the area to be cut out is designated by the user by an operation of tracing the outline of the area with a finger, a mouse cursor, or the like.

なお、切り抜いた画像は、例えば、SNS(Social Networking Service)のインスタントメッセージングサービス等で送信するスタンプ等に利用できる。 The cropped image can be used, for example, as a stamp or the like transmitted by an instant messaging service of SNS (Social Networking Service) or the like.

特開2017-016670号公報Japanese Unexamined Patent Publication No. 2017-016670

GIMP、 ”2.7. Intelligent Scissors”、[online]、[平成29年9月13日検索]、インターネット<URL: https://docs.gimp.org/en/gimp-tool-iscissors.html>GIMP, "2.7. Intelligent Scissors", [online], [Search on September 13, 2017], Internet <URL: https://docs.gimp.org/en/gimp-tool-iscissors.html>

しかしながら、従来技術では、例えば、写真等の画像に含まれる被写体等のオブジェクトの輪郭を、指やマウスカーソル等によりなぞる操作により指定する場合、当該輪郭を正確に指定することは難しい場合があるという問題がある。 However, in the prior art, for example, when the contour of an object such as a subject included in an image such as a photograph is specified by an operation of tracing with a finger, a mouse cursor, or the like, it may be difficult to accurately specify the contour. There's a problem.

本開示は、上記問題に鑑みてなされたものであり、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる技術を提供することを目的とする。 The present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide a technique capable of specifying an area of an object to be cut out from an image with relatively high accuracy and easily.

本開示の一実施形態に係るプログラムは、情報処理装置に、第1画像を表示させる第1表示ステップと、前記第1画像において切り抜く領域の輪郭を取得するステップと、前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させる第2表示ステップと、ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる第3表示ステップと、前記複数の編集点により指定される輪郭内の第2画像を切り抜くステップと、を実行させる。 The program according to the embodiment of the present disclosure includes a first display step of displaying a first image on an information processing apparatus, a step of acquiring a contour of a region to be cut out in the first image, and a step of correcting the contour. A second display step of displaying a plurality of edit points on the contour, and an enlarged display of the first image in response to a user operation, and increasing the number of the plurality of edit points. A third display step to be displayed and a step to cut out a second image in the contour designated by the plurality of editing points are executed.

本開示の一実施形態における通信システムの構成を示す図である。It is a figure which shows the structure of the communication system in one Embodiment of this disclosure. 画像の一部分を切り抜く際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of cutting out a part of an image. 端末における原画像の表示例について説明する図である。It is a figure explaining the display example of the original image in a terminal. 端末における切り抜き範囲の確認画面の表示例について説明する図である。It is a figure explaining the display example of the confirmation screen of the cutout range in a terminal. 第1実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of editing the clipping range which concerns on 1st Embodiment. 画像が拡大表示される前の編集点を表示させる方法の一例について説明する図である。It is a figure explaining an example of the method of displaying the edit point before the image is enlarged and displayed. 画像が拡大表示された際の編集点の数を増加させて表示させる方法の一例について説明する図である。It is a figure explaining an example of the method of increasing the number of edit points when the image is enlarged and displayed. 画像が拡大表示された後に縮小表示された際の編集点の数を減少させて表示させる方法の一例について説明する図である。It is a figure explaining an example of the method of reducing the number of edit points when the image is enlarged and then reduced and displayed. 第2の実施形態における通信システムの構成を示す図である。It is a figure which shows the structure of the communication system in 2nd Embodiment. 第2実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of editing the clipping range which concerns on 2nd Embodiment. 第1の移動点群の表示画面の一例を説明する図である。It is a figure explaining an example of the display screen of the 1st movement point group. 元画像をエッジ検出されたデータの一例を説明する図である。It is a figure explaining an example of the data which edge detected the original image. 端末の筐体を傾けた際の移動点の移動について説明する図である。It is a figure explaining the movement of the moving point when the housing of a terminal is tilted. 端末の筐体を傾けた際の移動点の移動について説明する図である。It is a figure explaining the movement of the moving point when the housing of a terminal is tilted. ユーザ操作による移動点の位置が固定された表示画面の一例を示す図である。It is a figure which shows an example of the display screen which fixed the position of the moving point by a user operation. 第2の移動点群の表示画面の一例を説明する図である。It is a figure explaining an example of the display screen of the 2nd moving point group. 大まかに指定された領域内のエッジを検出した結果のデータの一例を示す図である。It is a figure which shows an example of the data of the result of detecting the edge in a roughly specified area. 第3実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of editing the clipping range which concerns on 3rd Embodiment. フリック操作により編集点を移動させて表示させる処理について説明する図である。It is a figure explaining the process of moving and displaying an edit point by a flick operation. エッジの強さに応じて編集点の移動速度が減衰され、停止させて表示させる処理について説明する図である。It is a figure explaining the process which the moving speed of an edit point is attenuated according to the strength of an edge, and it is stopped and displayed. エッジの強さに応じて編集点の移動速度が減衰され、停止させて表示させる処理について説明する図である。It is a figure explaining the process which the moving speed of an edit point is attenuated according to the strength of an edge, and it is stopped and displayed.

<法的事項の遵守>
本明細書に記載の開示を実施する場合は、通信の秘密等、本開示を実施に関する実施国の法的事項を遵守の上で実施されるものであることに留意されたい。
<Compliance with legal matters>
It should be noted that the disclosures described herein are to be carried out in compliance with the legal matters of the implementing country regarding the implementation of this disclosure, such as the secrecy of communications.

本開示に係るプログラム、情報処理方法、及び情報処理装置を実施するための実施形態について、図面を参照して説明する。 An embodiment for implementing the program, the information processing method, and the information processing apparatus according to the present disclosure will be described with reference to the drawings.

<システム構成>
図1は、本開示の一実施形態における通信システムの構成を示す図である。図1に開示されるように、通信システムでは、ネットワーク30を介してサーバ10と、端末20(端末20A,端末20B,端末20C)とが接続される。サーバ10は、ネットワーク30を介してユーザが所有する端末20に、端末20間でのメッセージの送受信を実現するサービスを提供する。なお、ネットワーク30に接続される端末20の数は限定されない。
<System configuration>
FIG. 1 is a diagram showing a configuration of a communication system according to an embodiment of the present disclosure. As disclosed in FIG. 1, in a communication system, a server 10 and a terminal 20 (terminal 20A, terminal 20B, terminal 20C) are connected via a network 30. The server 10 provides a service for transmitting and receiving a message between terminals 20 to a terminal 20 owned by a user via a network 30. The number of terminals 20 connected to the network 30 is not limited.

ネットワーク30は、1以上の端末20と、1以上のサーバ10とを接続する役割を担う。すなわち、ネットワーク30は、端末20がサーバ10に接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。 The network 30 is responsible for connecting one or more terminals 20 and one or more servers 10. That is, the network 30 means a communication network that provides a connection route so that data can be transmitted and received after the terminal 20 connects to the server 10.

ネットワーク30のうちの1つまたは複数の部分は、有線ネットワークや無線ネットワークであってもよい。ネットワーク30は、限定でなく例として、アドホック・ネットワーク(ad hoc network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(virtual private network:VPN)、ローカル・エリア・ネットワーク(local area network:LAN)、ワイヤレスLAN(wireless LAN:WLAN)、広域ネットワーク(wide area network:WAN)、ワイヤレスWAN(wireless WAN:WWAN)、大都市圏ネットワーク(metropolitan area network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)CDMA(code division multiple access)、ブルートゥース(Bluetooth(登録商標))、衛星通信など、または、これらの2つ以上の組合せを含むことができる。ネットワーク30は、1つまたは複数のネットワーク30を含むことができる。 One or more parts of the network 30 may be a wired network or a wireless network. The network 30 is not limited but, for example, an ad hoc network, an intranet, an extranet, a virtual private network (VPN), a local area network (LAN), and a wireless network. LAN (wireless LAN: WLAN), wide area network (WAN), wireless WAN (wireless WAN: WWAN), metropolitan area network (MAN), part of the Internet, public exchange telephone network (Public) Switched Telephone Network: Part of PSTN, mobile network, ISDNs (integrated service digital networks), wireless LANs, LTE (long term evolution) CDMA (code division multiple access), Bluetooth (Bluetooth®), satellite communication Etc., or can include a combination of two or more of these. The network 30 may include one or more networks 30.

端末20(端末20A,端末20B,端末20C)は、各実施形態において記載する機能を実現できる情報処理端末であればどのような端末であってもよい。端末20は、限定ではなく例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(限定でなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA・(personal digital assistant)、電子メールクライアントなど)、ウェアラブル端末(メガネ型デバイス、時計型デバイスなど)、または他種のコンピュータ、またはコミュニケーションプラットホームを含む。また、端末20は情報処理端末と表現されても良い。 The terminal 20 (terminal 20A, terminal 20B, terminal 20C) may be any information processing terminal that can realize the functions described in each embodiment. The terminal 20 is not limited, but as an example, a smartphone, a mobile phone (feature phone), a computer (not limited, as an example, a desktop, a laptop, a tablet, etc.), a media computer platform (not limited, as an example, a cable, a satellite set). Top boxes, digital video recorders), handheld computer devices (for example, not limited to PDAs (personal digital assistants), e-mail clients, etc.), wearable terminals (glass-type devices, watch-type devices, etc.), or other types of computers. , Or including communication platforms. Further, the terminal 20 may be expressed as an information processing terminal.

端末20A、端末20Bおよび端末20Cの構成は基本的には同一であるため、以下の説明においては、端末20について説明する。また、必要に応じて、ユーザXが利用する端末を端末20Xと表現し、ユーザXまたは端末20Xに対応づけられた、所定のサービスにおけるユーザ情報をユーザ情報Xと表現する。なお、ユーザ情報とは、所定のサービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、限定でなく例として、ユーザにより入力される、または、所定のサービスにより付与される、ユーザの名前、ユーザのアイコン画像、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、ユーザの識別子などのユーザに対応づけられた情報を含み、これらのいずれか一つまたは、組み合わせであってもよい。 Since the configurations of the terminal 20A, the terminal 20B, and the terminal 20C are basically the same, the terminal 20 will be described in the following description. Further, if necessary, the terminal used by the user X is expressed as the terminal 20X, and the user information in the predetermined service associated with the user X or the terminal 20X is expressed as the user information X. The user information is user information associated with an account used by the user in a predetermined service. User information is not limited, but as an example, input by the user or given by a predetermined service, the user's name, the user's icon image, the user's age, the user's gender, the user's address, the user's hobby. It includes information associated with the user such as a taste and a user's identifier, and may be any one or a combination of these.

サーバ10は、端末20に対して、所定のサービスを提供する機能を備える。サーバ10は、各実施形態において記載する機能を実現できる情報処理装置であればどのような装置であってもよい。サーバ10は、限定でなく例として、サーバ装置、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)、メディアコンピュータプラットホーム(限定でなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA、電子メールクライアントなど)、あるいは他種のコンピュータ、またはコミュニケーションプラットホームを含む。また、サーバ10は情報処理装置と表現されても良い。 The server 10 has a function of providing a predetermined service to the terminal 20. The server 10 may be any device as long as it can realize the functions described in each embodiment. The server 10 is not limited, but by example, a server device, a computer (not limited, by example, a desktop, a laptop, a tablet, etc.), a media computer platform (not limited, by example, a cable, a satellite set-top box, a digital video recorder, etc.). ), Handheld computer devices (for example, but not limited to, PDA, e-mail client, etc.), or other types of computers, or communication platforms. Further, the server 10 may be expressed as an information processing device.

<ハードウェア(HW)構成>
図1を用いて、通信システムに含まれる各装置のHW構成について説明する。
<Hardware (HW) configuration>
The HW configuration of each device included in the communication system will be described with reference to FIG.

(1)端末のHW構成 (1) HW configuration of the terminal

端末20は、制御装置21(CPU:central processing unit(中央処理装置))、記憶装置28、通信I/F22(インタフェース)、入出力装置23、表示装置24、マイク25、スピーカ26、カメラ27を備える。端末20のHWの各構成要素は、限定でなく例として、バスBを介して相互に接続される。 The terminal 20 includes a control device 21 (CPU: central processing unit), a storage device 28, a communication I / F 22 (interface), an input / output device 23, a display device 24, a microphone 25, a speaker 26, and a camera 27. Be prepared. Each component of the HW of the terminal 20 is connected to each other via bus B, for example, without limitation.

通信I/F22は、ネットワーク30を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F22は、ネットワーク30を介して、サーバ10との通信を実行する機能を有する。通信I/F22は、各種データを制御装置21からの指示に従って、サーバ10に送信する。また、通信I/F22は、サーバ10から送信された各種データを受信し、制御装置21に伝達する。 The communication I / F 22 transmits / receives various data via the network 30. The communication may be executed by wire or wirelessly, and any communication protocol may be used as long as mutual communication can be executed. The communication I / F 22 has a function of executing communication with the server 10 via the network 30. The communication I / F 22 transmits various data to the server 10 according to the instruction from the control device 21. Further, the communication I / F 22 receives various data transmitted from the server 10 and transmits the various data to the control device 21.

入出力装置23は、端末20に対する各種操作を入力する装置、および、端末20で処理された処理結果を出力する装置を含む。入出力装置23は、入力装置と出力装置が一体化していても良いし、入力装置と出力装置に分離していてもよい。 The input / output device 23 includes a device for inputting various operations to the terminal 20 and a device for outputting the processing result processed by the terminal 20. The input / output device 23 may be integrated with the input device and the output device, or may be separated into the input device and the output device.

入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報を制御装置21に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入力装置は、限定でなく例として、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含む。 The input device is realized by any or a combination of all kinds of devices capable of receiving an input from a user and transmitting information related to the input to the control device 21. The input device includes, but is not limited to, hardware keys such as a touch panel, a touch display, and a keyboard, a pointing device such as a mouse, a camera (operation input via a moving image), and a microphone (operation input by voice).

出力装置は、制御装置21で処理された処理結果を出力することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力装置は、限定でなく例として、 タッチパネル、タッチディスプレイ、スピーカ(音声出力)、レンズ(限定でなく例として3D(three dimensions)出力や、ホログラム出力)、プリンターなどを含む。 The output device is realized by any one or a combination of all kinds of devices capable of outputting the processing result processed by the control device 21. Output devices include, but are not limited to, touch panels, touch displays, speakers (audio output), lenses (three dimensions output, hologram output, and not limited examples), printers, and the like.

表示装置24は、フレームバッファに書き込まれた表示データに従って、表示することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。表示装置24は、限定でなく例として、タッチパネル、タッチディスプレイ、モニタ(限定でなく例として、液晶ディスプレイやOELD(organic electroluminescence display))、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中など(真空であってもよい)に画像やテキスト情報等を表示可能な装置を含む。なお、これらの表示装置24は、3Dで表示データを表示可能であってもよい。 The display device 24 is realized by any or a combination of all kinds of devices that can be displayed according to the display data written in the frame buffer. The display device 24 is not limited but, as an example, a touch panel, a touch display, a monitor (not limited but, as an example, a liquid crystal display or an OELD (organic electroluminescence display)), a head mounted display (HDM), a projection mapping, a hologram. , Includes a device capable of displaying images, text information, etc. in the air (which may be vacuum). In addition, these display devices 24 may be able to display display data in 3D.

入出力装置23がタッチパネルの場合、入出力装置23と表示装置24とは、略同一の大きさおよび形状で対向して配置されていても良い。 When the input / output device 23 is a touch panel, the input / output device 23 and the display device 24 may be arranged so as to face each other with substantially the same size and shape.

制御装置21は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、限定でなく例として、ハードウェアに内蔵されたデータ処理装置により実現される。 The control device 21 has a circuit that is physically structured to perform a function realized by a code or an instruction contained in the program, and is not limited to, but as an example, a data processing device built in hardware. Is realized by.

制御装置21は、限定でなく例として、中央処理装置(CPU)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)を含む。 The control device 21 is not limited, but as an example, a central processing unit (CPU), a microprocessor (microprocessor), a processor core (processor core), a multiprocessor (multiprocessor), an ASIC (application-specific integrated circuit), and an FPGA (field programmable). gate array) is included.

記憶装置28は、端末20が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置28は、限定でなく例として、HDD(hard disk drive)、SSD(solid state drive)、フラッシュメモリ、RAM(random access memory)、ROM(read only memory)など各種の記憶媒体を含む。 The storage device 28 has a function of storing various programs and various data required for the terminal 20 to operate. The storage device 28 includes various storage media such as HDD (hard disk drive), SSD (solid state drive), flash memory, RAM (random access memory), and ROM (read only memory), as an example without limitation.

端末20は、プログラムPを記憶装置28に記憶し、このプログラムPを実行することで、制御装置21が、制御装置21に含まれる各部としての処理を実行する。つまり、記憶装置28に記憶されるプログラムPは、端末20に、制御装置21が実行する各機能を実現させる。 The terminal 20 stores the program P in the storage device 28, and by executing the program P, the control device 21 executes the processing as each part included in the control device 21. That is, the program P stored in the storage device 28 causes the terminal 20 to realize each function executed by the control device 21.

マイク25は、音声データの入力に利用される。スピーカ26は、音声データの出力に利用される。カメラ27は、動画像データの取得に利用される。 The microphone 25 is used for inputting voice data. The speaker 26 is used for outputting audio data. The camera 27 is used for acquiring moving image data.

(2)サーバのHW構成
サーバ10は、制御装置11(CPU)、記憶装置15、通信I/F14(インタフェース)、入出力装置12、ディスプレイ13を備える。サーバ10のHWの各構成要素は、限定でなく例として、バスBを介して相互に接続される。
(2) HW configuration of the server
The server 10 includes a control device 11 (CPU), a storage device 15, a communication I / F 14 (interface), an input / output device 12, and a display 13. Each component of the HW of the server 10 is connected to each other via bus B, for example, without limitation.

制御装置11は、プログラム内に含まれたコードまたは命令によって実現する機能を実行するために物理的に構造化された回路を有し、限定でなく例として、ハードウェアに内蔵されたデータ処理装置により実現される。 The control device 11 has a circuit that is physically structured to perform a function realized by a code or an instruction contained in the program, and is not limited to, but as an example, a data processing device built in hardware. Is realized by.

制御装置11は、代表的には中央処理装置(CPU)、であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGAであってもよい。ただし、本開示において、制御装置11は、これらに限定されない。 The control device 11 is typically a central processing unit (CPU), and may be a microprocessor, a processor core, a multiprocessor, an ASIC, or an FPGA. However, in the present disclosure, the control device 11 is not limited to these.

記憶装置15は、サーバ10が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。記憶装置15は、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。ただし、本開示において、記憶装置15は、これらに限定されない。 The storage device 15 has a function of storing various programs and various data required for the server 10 to operate. The storage device 15 is realized by various storage media such as HDD, SSD, and flash memory. However, in the present disclosure, the storage device 15 is not limited to these.

通信I/F14は、ネットワーク30を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F14は、ネットワーク30を介して、端末20との通信を実行する機能を有する。通信I/F14は、各種データを制御装置11からの指示に従って、端末20に送信する。また、通信I/F14は、端末20から送信された各種データを受信し、制御装置11に伝達する。 The communication I / F 14 transmits / receives various data via the network 30. The communication may be executed by wire or wirelessly, and any communication protocol may be used as long as mutual communication can be executed. The communication I / F 14 has a function of executing communication with the terminal 20 via the network 30. The communication I / F 14 transmits various data to the terminal 20 according to the instruction from the control device 11. Further, the communication I / F 14 receives various data transmitted from the terminal 20 and transmits the various data to the control device 11.

入出力装置12は、サーバ10に対する各種操作を入力する装置により実現される。入出力装置12は、ユーザからの入力を受け付けて、当該入力に係る情報を制御装置11に伝達できる全ての種類の装置のいずれかまたはその組み合わせにより実現される。入出力装置12は、代表的にはキーボード等に代表されるハードウェアキーや、マウス等のポインティングデバイスで実現される。なお、入出力装置12、限定でなく例として、タッチパネルやカメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含んでいてもよい。ただし、本開示において、入出力装置12は、これらに限定されない。 The input / output device 12 is realized by a device that inputs various operations to the server 10. The input / output device 12 is realized by any one or a combination of all kinds of devices capable of receiving an input from a user and transmitting information related to the input to the control device 11. The input / output device 12 is typically realized by a hardware key typified by a keyboard or the like, or a pointing device such as a mouse. The input / output device 12 is not limited to the input / output device 12, and may include, as an example, a touch panel, a camera (operation input via a moving image), and a microphone (operation input by voice). However, in the present disclosure, the input / output device 12 is not limited to these.

ディスプレイ13は、代表的にはモニタ(限定でなく例として、液晶ディスプレイやOELD(organic electroluminescence display))で実現される。なお、ディスプレイ13は、ヘッドマウントディスプレイ(HDM)などであってもよい。なお、これらのディスプレイ13は、3Dで表示データを表示可能であってもよい。ただし、本開示において、ディスプレイ13は、これらに限定されない。 The display 13 is typically realized by a monitor (not limited to, for example, a liquid crystal display or an OELD (organic electroluminescence display)). The display 13 may be a head-mounted display (HDM) or the like. In addition, these displays 13 may be able to display display data in 3D. However, in the present disclosure, the display 13 is not limited to these.

サーバ10は、プログラムPを記憶装置15に記憶し、このプログラムPを実行することで、制御装置11が、制御装置11に含まれる各部としての処理を実行する。つまり、記憶装置15に記憶されるプログラムPは、サーバ10に、制御装置11が実行する各機能を実現させる。 The server 10 stores the program P in the storage device 15, and by executing the program P, the control device 11 executes the processing as each part included in the control device 11. That is, the program P stored in the storage device 15 causes the server 10 to realize each function executed by the control device 11.

本開示の各実施形態においては、端末20および/またはサーバ10のCPUがプログラムPを実行することにより、実現するものとして説明する。 In each embodiment of the present disclosure, it will be described as being realized by the CPU of the terminal 20 and / or the server 10 executing the program P.

なお、端末20の制御装置21、および/または、サーバ10の制御装置11は、CPUだけでなく、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。 The control device 21 of the terminal 20 and / or the control device 11 of the server 10 is not only a CPU but also a logic circuit formed in an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)) or the like. Each process may be realized by (hardware) or a dedicated circuit. Further, these circuits may be realized by one or a plurality of integrated circuits, and a plurality of processes shown in each embodiment may be realized by one integrated circuit. In addition, LSI may be referred to as VLSI, super LSI, ultra LSI, or the like depending on the degree of integration.

また、本開示の各実施形態のプログラムP(ソフトウェアプログラム/コンピュータプログラム)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。 記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。 Further, the program P (software program / computer program) of each embodiment of the present disclosure may be provided in a state of being stored in a storage medium readable by a computer. The storage medium can store the program in a "non-temporary tangible medium".

記憶媒体は適切な場合、1つまたは複数の半導体ベースの、または他の集積回路(IC)(限定でなく例として、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、プログラムPを記憶可能であれば、どのようなデバイスまたは媒体であってもよい。 When appropriate, the storage medium may be one or more semiconductor-based or other integrated circuits (ICs), such as, but not limited to, field programmable gate arrays (FPGAs) or application-specific ICs (ASICs). ), Hard disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), optical magnetic disk, optical magnetic drive, floppy diskette, floppy disk drive (FDD), magnetic It can include tapes, solid drive (SSD), RAM drives, secure digital cards or drives, any other suitable storage medium, or any suitable combination of two or more thereof. The storage medium may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate. The storage medium is not limited to these examples, and may be any device or medium as long as the program P can be stored.

サーバ10および/または端末20は、記憶媒体に記憶されたプログラムPを読み出し、読み出したプログラムPを実行することによって、各実施形態に示す複数の機能部の機能を実現することができる。 The server 10 and / or the terminal 20 can read the program P stored in the storage medium and execute the read program P to realize the functions of the plurality of functional units shown in each embodiment.

また、本開示のプログラムPは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバ10および/または端末20に提供されてもよい。サーバ10および/または端末20は、限定でなく例として、インターネット等を介してダウンロードしたプログラムPを実行することにより、各実施形態に示す複数の機能部の機能を実現する。 Further, the program P of the present disclosure may be provided to the server 10 and / or the terminal 20 via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. The server 10 and / or the terminal 20 realizes the functions of the plurality of functional units shown in each embodiment by executing the program P downloaded via the Internet or the like, as an example without limitation.

また、本開示の各実施形態は、プログラムPが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
サーバ10および/または端末20における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
Each embodiment of the present disclosure may also be realized in the form of a data signal embedded in a carrier wave, in which the program P is embodied by electronic transmission.
At least a part of the processing in the server 10 and / or the terminal 20 may be realized by cloud computing composed of one or more computers.

端末20における処理の少なくとも一部を、サーバ10により行う構成としてもよい。この場合、端末20の制御装置21の各機能部の処理のうち少なくとも一部の処理を、サーバ10で行う構成としてもよい。 At least a part of the processing in the terminal 20 may be performed by the server 10. In this case, the server 10 may perform at least a part of the processing of each functional unit of the control device 21 of the terminal 20.

サーバ10における処理の少なくとも一部を、端末20により行う構成としてもよい。この場合、サーバ10の制御装置11の各機能部の処理のうち少なくとも一部の処理を、端末20で行う構成としてもよい。 At least a part of the processing in the server 10 may be performed by the terminal 20. In this case, the terminal 20 may perform at least a part of the processing of each functional unit of the control device 11 of the server 10.

明示的な言及のない限り、本開示の実施形態における判定の構成は必須でなく、判定条件を満たした場合に所定の処理が動作されたり、判定条件を満たさない場合に所定の処理がされたりしてもよい。 Unless explicitly mentioned, the configuration of the determination in the embodiment of the present disclosure is not essential, and a predetermined process may be operated when the determination condition is satisfied, or a predetermined process may be performed when the determination condition is not satisfied. You may.

なお、本開示のプログラムは、限定でなく例として、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装される。 The program of this disclosure is not limited to, but examples include scripting languages such as ActionScript and JavaScript (registered trademark), object-oriented programming languages such as Objective-C and Java (registered trademark), and markup languages such as HTML5. Implemented using.

<第1の実施形態>
第1の実施形態は、原画像において切り抜く領域(範囲)の輪郭を修正するための点であって、当該輪郭上の点である編集点の数を、画像を拡大表示した際に、増加させて表示させる形態である。第1の実施形態によれば、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる。なお、第1の実施形態に記載の内容は、後述する他の各実施形態のいずれにも適用可能である。
<First Embodiment>
The first embodiment is a point for correcting the contour of a region (range) to be cut out in the original image, and increases the number of editing points, which are points on the contour, when the image is enlarged and displayed. It is a form to be displayed. According to the first embodiment, the area of the object to be cut out from the image can be specified with relatively high accuracy and easily. The contents described in the first embodiment can be applied to any of the other embodiments described later.

<機能構成>
(1)端末の機能構成
<Functional configuration>
(1) Functional configuration of the terminal

図1に示すように、端末20は、制御装置21により実現される機能として、受付部201、表示制御部202、画像処理部203、及び制御部204を有する。 As shown in FIG. 1, the terminal 20 has a reception unit 201, a display control unit 202, an image processing unit 203, and a control unit 204 as functions realized by the control device 21.

受付部201は、ユーザからの操作を受け付ける。受付部201は、例えば、表示されている原画像において切り抜く領域の輪郭を指定する操作等を受け付ける。 The reception unit 201 receives an operation from the user. The reception unit 201 receives, for example, an operation of designating the outline of the area to be cut out in the displayed original image.

表示制御部202は、画像処理部203またはサーバ10からの指示に従い、画像をトリミングする際の表示画面を、端末20の画面に表示させる。表示制御部202は、例えば、画像において切り抜く領域(範囲)の輪郭を修正するための点であって、当該輪郭上の点である編集点を複数表示させる。また、表示制御部202は、ユーザの操作に応答して、当該画像の少なくとも一部を拡大して表示させるとともに、編集点の数を増加させて表示させる。 The display control unit 202 causes the screen of the terminal 20 to display the display screen for trimming the image according to the instruction from the image processing unit 203 or the server 10. The display control unit 202 is, for example, a point for correcting the contour of a region (range) to be cut out in an image, and displays a plurality of editing points which are points on the contour. Further, the display control unit 202 enlarges and displays at least a part of the image in response to the user's operation, and increases the number of editing points to display.

画像処理部203は、複数の編集点により指定される輪郭内の画像を切り抜く画像処理を行う。 The image processing unit 203 performs image processing for cutting out an image within a contour designated by a plurality of editing points.

制御部204は、画像処理部203により切り抜かれた画像を含むコンテンツを生成し、サーバ10に送信する。
(2)サーバの機能構成
図1に示すように、サーバ10は、制御装置11により実現される機能として、取得部101、表示制御部102、及び制御部103を有する。
The control unit 204 generates content including an image cut out by the image processing unit 203 and transmits it to the server 10.
(2) Functional Configuration of Server As shown in FIG. 1, the server 10 has an acquisition unit 101, a display control unit 102, and a control unit 103 as functions realized by the control device 11.

取得部101は、端末20からのデータを取得する。 The acquisition unit 101 acquires data from the terminal 20.

表示制御部102は、端末20の画面の表示を制御する。 The display control unit 102 controls the display of the screen of the terminal 20.

制御部103は、端末20から受信したコンテンツを、例えば、SNSのインスタントメッセージングサービス等で利用可能なスタンプ等として、各端末20のユーザに販売する。
<処理>
次に、図2を参照し、端末20において画像の一部分を切り抜く際の処理の一例について説明する。図2は、画像の一部分を切り抜く際の処理の一例を示すフローチャートである。図3Aは、端末20における原画像の表示例について説明する図である。図3Bは、端末20における切り抜き範囲の確認画面の表示例について説明する図である。
The control unit 103 sells the content received from the terminal 20 to the user of each terminal 20 as a stamp or the like that can be used in, for example, an instant messaging service of SNS.
<Processing>
Next, with reference to FIG. 2, an example of a process for cutting out a part of an image in the terminal 20 will be described. FIG. 2 is a flowchart showing an example of processing when cutting out a part of an image. FIG. 3A is a diagram illustrating a display example of an original image on the terminal 20. FIG. 3B is a diagram illustrating a display example of a cutout range confirmation screen in the terminal 20.

ステップS1において、端末20の受付部201は、ユーザから、画像を選択する操作を受け付ける。 In step S1, the reception unit 201 of the terminal 20 receives an operation of selecting an image from the user.

続いて、端末20の表示制御部202は、選択された画像(「第1画像」)を画面に表示させる(ステップS2)。ここで、図3Aに示すように、例えば、端末20において予め保存されている画像、または端末20にて撮影した画像が表示される。図3Aの例では、犬301の画像がユーザに選択され、表示されている。 Subsequently, the display control unit 202 of the terminal 20 displays the selected image (“first image”) on the screen (step S2). Here, as shown in FIG. 3A, for example, an image stored in advance in the terminal 20 or an image taken by the terminal 20 is displayed. In the example of FIG. 3A, the image of the dog 301 is selected and displayed by the user.

続いて、端末20の受付部201、及び表示制御部202は、ユーザからの操作により、当該選択された画像における切り抜き範囲を編集する(ステップS3)。 Subsequently, the reception unit 201 and the display control unit 202 of the terminal 20 edit the clipping range in the selected image by the operation from the user (step S3).

続いて、端末20の画像処理部203は、ユーザの操作により、編集された切り抜き範囲内の画像(「第2画像」)をトリミングする(ステップS4)。図3Bの例では、編集された切り抜き範囲外の領域の輝度を下げることにより、編集された切り抜き範囲内である犬301の顔の部分301Aが強調されて表示されている。図3Bの例では、確認ボタン302がタップされると、編集された切り抜き範囲内である部分301Aの画像が、切り抜かれて保存される。 Subsequently, the image processing unit 203 of the terminal 20 trims the image (“second image”) in the edited clipping range by the user's operation (step S4). In the example of FIG. 3B, the face portion 301A of the dog 301 within the edited clipping range is highlighted and displayed by reducing the brightness of the area outside the edited clipping range. In the example of FIG. 3B, when the confirmation button 302 is tapped, the image of the portion 301A within the edited cropping range is cropped and saved.

≪第1実施形態のトリミング処理≫
次に、図4乃至図7を参照し、ステップS3の、ユーザからの操作により切り抜き範囲を編集する際の処理について説明する。図4は、切り抜き範囲を編集する際の処理の一例を示すフローチャートである。図5は、画像が拡大表示される前の編集点を表示させる方法の一例について説明する図である。図6は、画像が拡大表示された際の編集点の数を増加させて表示させる方法の一例について説明する図である。図7は、画像が拡大表示された後に縮小表示された際の編集点の数を減少させて表示させる方法の一例について説明する図である。
<< Trimming process of the first embodiment >>
Next, with reference to FIGS. 4 to 7, the process of editing the clipping range by the operation from the user in step S3 will be described. FIG. 4 is a flowchart showing an example of processing when editing the clipping range. FIG. 5 is a diagram illustrating an example of a method of displaying an edit point before the image is enlarged and displayed. FIG. 6 is a diagram illustrating an example of a method of increasing the number of edit points when the image is enlarged and displayed. FIG. 7 is a diagram illustrating an example of a method of reducing the number of edit points when the image is enlarged and then reduced and displayed.

ステップS101において、受付部201は、ユーザの操作に応答して、表示されている原画像において切り抜く領域の輪郭を取得する。 In step S101, the reception unit 201 acquires the outline of the area to be cut out in the displayed original image in response to the user's operation.

続いて、表示制御部202は、当該輪郭上に、複数の編集点を表示させる(ステップS102)。ここで、表示制御部202は、例えば、ユーザが画面を指またはマウスカーソルでなぞる操作を行うと、ユーザによりなぞられた各画素を通る線を当該輪郭とする。図5の例では、互いに隣り合う編集点401及び編集点402等が輪郭400上に表示されている。ここで、表示制御部202は、例えば、輪郭上に、当該輪郭上における所定の間隔で編集点を表示してもよい。または、表示制御部202は、例えば、隣り合う2つの編集点の間の当該輪郭上の長さが第1閾値(例えば、6mm)以上離れた位置となり、かつ各編集点が当該輪郭上の特徴点の位置となる位置に編集点をそれぞれ表示してもよい。なお、輪郭上の特徴点については後述する。 Subsequently, the display control unit 202 displays a plurality of edit points on the contour (step S102). Here, the display control unit 202 uses, for example, a line passing through each pixel traced by the user as the contour when the user performs an operation of tracing the screen with a finger or a mouse cursor. In the example of FIG. 5, the edit points 401 and the edit points 402 that are adjacent to each other are displayed on the contour 400. Here, the display control unit 202 may display edit points on the contour at predetermined intervals on the contour, for example. Alternatively, the display control unit 202 is located, for example, at a position where the length on the contour between two adjacent editing points is separated by a first threshold value (for example, 6 mm) or more, and each editing point is a feature on the contour. The edited points may be displayed at the positions of the points. The feature points on the contour will be described later.

続いて、受付部201は、表示されている原画像を拡大するための操作をユーザから受け付ける(ステップS103)。ここで、受付部201は、例えば、タッチパネル画面上に親指、及び人差し指等を乗せ、二本の指で押し広げるピンチアウト操作等を受け付ける。 Subsequently, the reception unit 201 receives from the user an operation for enlarging the displayed original image (step S103). Here, the reception unit 201 receives, for example, a pinch-out operation in which a thumb, an index finger, or the like is placed on the touch panel screen and spread by two fingers.

続いて、表示制御部202は、表示されている原画像を拡大して表示させるとともに、編集点の数を増加させて表示させる(ステップS104)。 Subsequently, the display control unit 202 enlarges and displays the displayed original image, and increases the number of edit points to display (step S104).

図6の例では、表示制御部202は、図5の画像が拡大表示され、編集点401と編集点402との間の輪郭上の長さが上述した第1閾値以上となっている場合、編集点401と編集点402との間の輪郭上に、編集点403を追加して表示させている。また、図6の例では、表示制御部202は、編集点401と編集点402との間の輪郭上で、編集点401と編集点402とからそれぞれ輪郭上の長さが第2閾値(例えば、3mm)以上離れた所定の位置に、編集点403を追加して表示させている。 In the example of FIG. 6, when the image of FIG. 5 is enlarged and the length on the contour between the editing point 401 and the editing point 402 is equal to or larger than the above-mentioned first threshold value, the display control unit 202 displays the image of FIG. The edit point 403 is added and displayed on the contour between the edit point 401 and the edit point 402. Further, in the example of FIG. 6, the display control unit 202 has a second threshold value (for example, the length on the contour from the edit point 401 and the edit point 402 on the contour between the edit point 401 and the edit point 402, respectively). The edit point 403 is added and displayed at a predetermined position separated by 3 mm) or more.

表示制御部202は、編集点403を、編集点401から編集点402までの輪郭上の中間に追加してもよい。または、表示制御部202は、編集点403を、編集点401から編集点402までの輪郭上の特徴点に追加してもよい。ここで、輪郭上の特徴点とは、当該輪郭の曲がり具合の特徴を表す点であり、例えば、当該輪郭を代数曲線にて表した場合の尖点等の特異点、及び当該代数曲線における曲率の極値点等を、輪郭上の特徴点として用いてもよい。 The display control unit 202 may add the edit point 403 to the middle of the contour from the edit point 401 to the edit point 402. Alternatively, the display control unit 202 may add the edit point 403 to the feature points on the contour from the edit point 401 to the edit point 402. Here, the feature point on the contour is a point representing the characteristic of the bending degree of the contour, for example, a singular point such as a cusp when the contour is represented by an algebraic curve, and a curvature in the algebraic curve. Extreme value points and the like may be used as feature points on the contour.

続いて、受付部201は、編集点の位置を画面上の任意の位置に移動させる操作をユーザから受け付ける(ステップS105)。ここで、受付部201は、例えば、タッチパネル画面上の編集点に指で触れた状態で当該指を滑らせるスライド操作等を受け付ける。 Subsequently, the reception unit 201 receives from the user an operation of moving the position of the editing point to an arbitrary position on the screen (step S105). Here, the reception unit 201 receives, for example, a slide operation in which the finger is slid while the editing point on the touch panel screen is touched by the finger.

続いて、表示制御部202は、当該操作に応答して、操作された編集点の位置を移動させる(ステップS106)。ここで、表示制御部202は、例えば、操作された編集点を、スライド操作等により指が移動された位置まで移動させるとともに、当該操作された編集点から、輪郭上の長さが第3閾値(例えば、1cm)以下である1以上の他の編集点(以下で「周辺の編集点」との称する。)も、当該操作された編集点の移動方向に従った方向に移動させてもよい。この場合、表示制御部202は、例えば、周辺の編集点の移動距離は、当該操作された編集点の移動距離に比例し、当該操作された編集点から当該周辺の編集点までの輪郭上の長さに反比例するようにしてもよい。 Subsequently, the display control unit 202 moves the position of the operated edit point in response to the operation (step S106). Here, the display control unit 202 moves, for example, the operated edit point to the position where the finger is moved by a slide operation or the like, and the length on the contour from the operated edit point is the third threshold value. One or more other editing points (for example, 1 cm or less) (hereinafter referred to as "peripheral editing points") may also be moved in a direction according to the moving direction of the operated editing point. .. In this case, the display control unit 202, for example, indicates that the moving distance of the peripheral editing point is proportional to the moving distance of the operated editing point, and is on the contour from the operated editing point to the peripheral editing point. It may be inversely proportional to the length.

続いて、表示制御部202は、移動後の編集点を通る輪郭を算出し、算出した変更後の輪郭を表示させる(ステップS107)。ここで、表示制御部202は、移動後の編集点を通る輪郭を、現在表示されている各編集点を通る代数曲線として算出してもよい。または、表示制御部202は、移動後の編集点を通る輪郭を、現在表示されている各編集点を通る直線等として算出してもよい。 Subsequently, the display control unit 202 calculates the contour passing through the edited point after the movement, and displays the calculated contour after the change (step S107). Here, the display control unit 202 may calculate the contour passing through the edited points after movement as an algebraic curve passing through each currently displayed edit point. Alternatively, the display control unit 202 may calculate the contour passing through the edited point after the movement as a straight line passing through each currently displayed edit point or the like.

続いて、表示制御部202は、現在表示されている編集点、及び変更後の輪郭に基づいて、表示させる編集点の追加、または削除を行う(ステップS108)。ここで、表示制御部202は、例えば、編集点の移動により、隣り合う2つの編集点の間の当該輪郭上の長さが第4閾値(例えば、1cm)以上離れた位置となる場合、各編集点が当該輪郭上の特徴点の位置となる位置に編集点を追加する。また、表示制御部202は、編集点の移動により、隣り合う2つの編集点の間の当該輪郭上の長さが上述した第2閾値未満の位置となる場合、当該隣り合う2つの編集点のうちの一方を削除する(非表示とする)。 Subsequently, the display control unit 202 adds or deletes the edit points to be displayed based on the currently displayed edit points and the changed contour (step S108). Here, the display control unit 202 is used, for example, when the length on the contour between two adjacent editing points is separated by a fourth threshold value (for example, 1 cm) or more due to the movement of the editing points. The edit point is added at the position where the edit point is the position of the feature point on the contour. Further, when the length on the contour between the two adjacent edit points becomes a position less than the above-mentioned second threshold value due to the movement of the edit points, the display control unit 202 of the two adjacent edit points. Delete one of them (hide it).

続いて、受付部201は、表示されている原画像を縮小するための操作をユーザから受け付ける(ステップS109)。ここで、受付部201は、例えば、タッチパネル画面上に親指、及び人差し指等を乗せ、二本の指でつまむような動作をするピンチイン操作等を受け付ける。 Subsequently, the reception unit 201 receives from the user an operation for reducing the displayed original image (step S109). Here, the reception unit 201 receives, for example, a pinch-in operation in which a thumb, an index finger, or the like is placed on the touch panel screen and the operation is pinched by two fingers.

続いて、表示制御部202は、拡大して表示されている原画像を縮小して表示させるとともに、編集点の数を減少させて表示させる(ステップS110)。 Subsequently, the display control unit 202 reduces and displays the enlarged and displayed original image, and reduces the number of editing points to display (step S110).

ここで、表示制御部202は、ステップS105の編集点の位置を移動させる操作に基づいて位置が変更された編集点は表示を継続し、ステップS105の編集点の位置を移動させる操作によっては位置が変更されていない編集点のみ数を減少させて表示させてもよい。これにより、画像を縮小した場合でも、変更後の輪郭の特徴点等となっている、ユーザ操作により位置が変更された編集点の表示が継続されるため、輪郭の形状をより明確にユーザに表示することができる。 Here, the display control unit 202 continues to display the edit point whose position has been changed based on the operation of moving the position of the edit point in step S105, and the position depending on the operation of moving the position of the edit point in step S105. You may reduce the number of edit points that have not been changed and display them. As a result, even if the image is reduced, the edit points whose positions have been changed by the user operation, which are the feature points of the contour after the change, are continuously displayed, so that the shape of the contour can be made clearer to the user. Can be displayed.

なお、この場合、表示制御部202は、例えば、ステップS105の編集点の位置を移動させる操作に基づいて位置が変更された編集点としては、例えば、ユーザにより操作をされた一の編集点のみとしてもよい。または、表示制御部202は、当該一の編集点に加え、ステップS106において当該一の編集点の移動に合わせて自動で移動させた当該一の編集点の周辺の編集点、及びステップS108で追加された編集点等を含むようにしてもよい。表示制御部202は、図7の例では、編集点601、及び編集点602等に加え、拡大表示された際に追加された後、ユーザの操作により位置が変更された編集点603も、縮小表示された際にも継続して表示させている。 In this case, for example, the display control unit 202 has only one edit point operated by the user as the edit point whose position has been changed based on the operation of moving the position of the edit point in step S105. May be. Alternatively, in addition to the one editing point, the display control unit 202 adds the editing points around the one editing point automatically moved according to the movement of the one editing point in step S106, and added in step S108. It may include the edited points and the like. In the example of FIG. 7, the display control unit 202 reduces the edit points 601 and the edit points 602, and the edit points 603 whose positions are changed by the user's operation after being added when the display is enlarged. Even when it is displayed, it is continuously displayed.

または、表示制御部202は、ステップS105の編集点の位置を移動させる操作に基づいて位置が変更された編集点についても、数を減少させて表示させてもよい。この場合、表示制御部202は、例えば、青丸等で表示される編集点は表示しないようにしても、白線等で表示される輪郭の線は、位置が変更された編集点を通る輪郭を表示してもよい。この場合、表示制御部202は、例えば、ステップS107にて移動後の編集点を通る輪郭を代数曲線として算出して記憶しておいてもよい。そして、表示制御部202は、縮小表示された際に編集点の表示を消し、再度拡大表示された際に、記憶されている代数曲線の特徴点等となっている、ステップS105のユーザ操作により位置が変更された編集点を再度表示させる。これにより、縮小表示された際に消された編集点を、再度拡大表示であれた際に復元することができる。
<第1実施形態の効果>
上述した第1の実施形態によれば、画像が拡大表示された際に、自動で編集点の数を増加させて表示させる。これにより、原画像中から切り抜く対象のオブジェクトの輪郭を、より容易な操作で、より精度良く指定することができる。また、操作がより容易となるため、結果的に端末20の処理負荷を軽減できるという効果も奏する。
Alternatively, the display control unit 202 may display the edited points whose positions have been changed based on the operation of moving the positions of the edited points in step S105 by reducing the number. In this case, even if the display control unit 202 does not display the edit point displayed by, for example, a blue circle, the contour line displayed by the white line or the like is a contour that passes through the edit point whose position has been changed. It may be displayed. In this case, the display control unit 202 may calculate and store the contour passing through the edited point after the movement in step S107 as an algebraic curve, for example. Then, the display control unit 202 erases the display of the edited point when it is reduced and displayed, and when it is enlarged and displayed again, it becomes a feature point of the stored algebraic curve or the like, by the user operation in step S105. Display the edited point whose position has been changed again. As a result, the edited points that were erased when the display was reduced can be restored when the display is enlarged again.
<Effect of the first embodiment>
According to the first embodiment described above, when the image is enlarged and displayed, the number of editing points is automatically increased and displayed. As a result, the outline of the object to be cut out from the original image can be specified more accurately with a simpler operation. In addition, since the operation becomes easier, the processing load of the terminal 20 can be reduced as a result.

<第2の実施形態>
第2の実施形態は、ユーザによる端末20の筐体を傾ける操作に応答して、原画像において切り抜く領域を指定する点を移動させて表示させる形態である。第2の実施形態によれば、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる。なお、第2の実施形態は一部を除いて第1の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。なお、第2の実施形態に記載の内容は、他の各実施形態のいずれにも適用可能である。
<ハードウェア(HW)構成>
図8は、第2の実施形態における通信システムの構成を示す図である。図8に示すように、第2の実施形態に係る端末20は、傾きセンサ29をさらに備える。傾きセンサ29は、例えば、加速度センサ、及び角速度センサ等であり、端末20の筐体の傾きを検出するためのセンサである。
<機能構成>
図8に示すように、第2の実施形態に係る端末20は、制御装置21により実現される機能として、傾き検出部205を有する。
<Second embodiment>
The second embodiment is a mode in which a point designating a region to be cut out in the original image is moved and displayed in response to an operation of tilting the housing of the terminal 20 by the user. According to the second embodiment, the area of the object to be cut out from the image can be specified with relatively high accuracy and easily. Since the second embodiment is the same as the first embodiment except for a part, the description thereof will be omitted as appropriate. In the following, the parts common to the first embodiment will be omitted, and only the different parts will be described. The contents described in the second embodiment can be applied to any of the other embodiments.
<Hardware (HW) configuration>
FIG. 8 is a diagram showing a configuration of a communication system according to the second embodiment. As shown in FIG. 8, the terminal 20 according to the second embodiment further includes a tilt sensor 29. The tilt sensor 29 is, for example, an acceleration sensor, an angular velocity sensor, or the like, and is a sensor for detecting the tilt of the housing of the terminal 20.
<Functional configuration>
As shown in FIG. 8, the terminal 20 according to the second embodiment has a tilt detection unit 205 as a function realized by the control device 21.

傾き検出部205は、傾きセンサ29からの出力に基づいて、端末20の筐体の傾きを検出する。
<処理>
≪第2実施形態のトリミング処理≫
次に、図9乃至図13を参照し、ステップS3の、ユーザからの操作により切り抜き範囲を編集する際の処理について説明する。図9は、第2実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。図10は、第1の移動点群の表示画面の一例を説明する図である。図11は、元画像をエッジ検出されたデータの一例を説明する図である。図12、及び図13は、端末20の筐体を傾けた際の移動点の移動について説明する図である。図14は、ユーザ操作による移動点の位置が固定された表示画面の一例を示す図である。図15は、第2の移動点群の表示画面の一例を説明する図である。
The tilt detection unit 205 detects the tilt of the housing of the terminal 20 based on the output from the tilt sensor 29.
<Processing>
<< Trimming process of the second embodiment >>
Next, with reference to FIGS. 9 to 13, the process of editing the clipping range by the operation from the user in step S3 will be described. FIG. 9 is a flowchart showing an example of processing when editing the clipping range according to the second embodiment. FIG. 10 is a diagram illustrating an example of a display screen of the first moving point group. FIG. 11 is a diagram illustrating an example of data in which an edge of the original image is detected. 12 and 13 are views for explaining the movement of the moving point when the housing of the terminal 20 is tilted. FIG. 14 is a diagram showing an example of a display screen in which the position of a moving point by a user operation is fixed. FIG. 15 is a diagram illustrating an example of a display screen of the second moving point group.

ステップS201において、表示制御部202は、受付部201により受け付けられたユーザの操作に応答して、表示されている原画像において切り抜く領域を指定するための1以上の移動点である第1の移動点群(「第1の複数の点」)を画面の一方の側から表示させる。図10の例では、表示制御部202は、端末20の画面の上辺付近から、横方向に並べられた複数の移動点1001-1、1001-2、乃至1001-Nと、各移動点を結ぶ線1002(トリミング線)を表示させている。 In step S201, the display control unit 202 is the first movement, which is one or more movement points for designating the area to be cut out in the displayed original image in response to the user's operation accepted by the reception unit 201. The point cloud (“first plurality of points”) is displayed from one side of the screen. In the example of FIG. 10, the display control unit 202 connects each movement point to a plurality of movement points 1001-1, 1001-2, or 1001-N arranged in the horizontal direction from the vicinity of the upper side of the screen of the terminal 20. Line 1002 (trimming line) is displayed.

続いて、表示制御部202は、表示されている原画像のエッジを検出する(ステップS202)。ここで、表示制御部202は、例えば、画像を1次微分して勾配の大きさ(エッジの強さ)を計算し、勾配の方向からエッジの局所的方向を予測し、その方向の勾配が局所的に極大となる箇所を探す手法を用いてもよい。または、表示制御部202は、例えば、画像から求めた2次微分式でのゼロ交差を探す手法等を用いてもよい。または、その他の公知の手法を用いてもよい。図11では、図10に示す元画像をエッジ検出した結果のデータ1101の一例が示されている。図11の例では、検出されたエッジの強さが所定の閾値以上である画素が黒で示されている。表示制御部202は、検出されたエッジの強さのうち、所定の閾値以上の値のみを用いるようにしてもよい。 Subsequently, the display control unit 202 detects the edge of the displayed original image (step S202). Here, the display control unit 202, for example, linearly differentiates the image to calculate the magnitude of the gradient (edge strength), predicts the local direction of the edge from the direction of the gradient, and the gradient in that direction is A method of searching for a locally maximum location may be used. Alternatively, the display control unit 202 may use, for example, a method of searching for a zero intersection in a quadratic differential expression obtained from an image. Alternatively, other known methods may be used. FIG. 11 shows an example of data 1101 as a result of edge detection of the original image shown in FIG. In the example of FIG. 11, pixels whose detected edge strength is equal to or greater than a predetermined threshold value are shown in black. The display control unit 202 may use only the value of the detected edge strength that is equal to or greater than a predetermined threshold value.

続いて、表示制御部202は、ユーザによる端末20の筐体を任意の方向に傾ける操作に応答して、複数の移動点1001-1、1001-2、乃至1001-Nと、各移動点を結ぶ線1002を、傾けられた方向に移動させて表示させる(ステップS203)。ここで、ユーザにより、筐体の画面が所定位置(例えば、水平位置)から大きく傾けられるほど、より速い速度で各移動点を移動させて表示させてもよい。 Subsequently, the display control unit 202 sets the plurality of moving points 1001-1, 1001-2, or 1001-N and each moving point in response to the user's operation of tilting the housing of the terminal 20 in an arbitrary direction. The connecting line 1002 is moved in the tilted direction and displayed (step S203). Here, the user may move and display each moving point at a faster speed as the screen of the housing is tilted more from a predetermined position (for example, a horizontal position).

続いて、表示制御部202は、元画像のエッジの強さに応じた仮想的な力(粘着力または摩擦力)により、当該各移動点を当該エッジの各部分で一旦停止させて表示させる(ステップS204)。ここで、表示制御部202は、各移動点が現在位置する図10に示すような元画像上の画素の位置に対応する、図11に示すようなエッジのデータ上の画素の位置におけるエッジの強さの値を抽出する。そして、表示制御部202は、抽出したエッジの強さに応じた仮想的な力により、各移動点を一旦停止させる。 Subsequently, the display control unit 202 temporarily stops each moving point at each portion of the edge and displays the moving point by a virtual force (adhesive force or frictional force) according to the strength of the edge of the original image (adhesive force or frictional force). Step S204). Here, the display control unit 202 is a display control unit 202 of the edge at the position of the pixel on the data of the edge as shown in FIG. 11 corresponding to the position of the pixel on the original image as shown in FIG. 10 where each moving point is currently located. Extract the strength value. Then, the display control unit 202 temporarily stops each moving point by a virtual force according to the strength of the extracted edge.

また、表示制御部202は、例えば、隣り合う各移動点を通る、原画像から検出したエッジに沿った曲線又は直線により、各移動点を結ぶトリミング線を表示する。 Further, the display control unit 202 displays a trimming line connecting the moving points by, for example, a curve or a straight line along the edge detected from the original image passing through the adjacent moving points.

なお、一旦停止された移動点は、筐体をさらに傾けることにより、再度移動される。この場合、表示制御部202は、例えば、ユーザにより筐体を傾けられた際、移動点に仮想的にかかる重力により当該移動点が滑り落ちる方向の力と、エッジの強さに応じた仮想的な力であるエッジ上の粘着力または摩擦力により当該移動点が当該エッジ上の位置に止まろうとする仮想的な慣性力とを算出する。そして、表示制御部202は、滑り落ちる方向の力の方が、エッジ上の位置に止まろうとする慣性力よりも大きくなった場合に、当該移動点を当該滑り落ちる方向に移動するように表示させてもよい。 The moving point once stopped is moved again by further tilting the housing. In this case, for example, when the housing is tilted by the user, the display control unit 202 is virtual according to the force in the direction in which the moving point slides down due to the gravity applied to the moving point and the strength of the edge. The virtual inertial force at which the moving point tries to stop at the position on the edge is calculated by the adhesive force or the frictional force on the edge, which is a force. Then, even if the display control unit 202 displays that the moving point moves in the sliding direction when the force in the sliding direction becomes larger than the inertial force trying to stop at the position on the edge. good.

また、滑り落ちる方向の力の方が、各エッジ上の位置に止まろうとする慣性力よりも大きくなる程度に、筐体が十分に大きく傾けられている場合、移動点は当該各エッジ上で一旦停止されずに、端末20の画面の端まで移動されて表示されてもよい。 Also, if the housing is tilted sufficiently large enough that the force in the sliding direction is greater than the inertial force that tries to stop at a position on each edge, the moving point will temporarily stop on each edge. Instead, it may be moved to the edge of the screen of the terminal 20 and displayed.

なお、ステップS203の移動点を移動させる処理、及びステップS204のエッジの強さに応じた仮想的な力により各移動点を一旦停止させる処理は、ユーザによる筐体を傾ける操作により、交互に繰り返して行われる。 The process of moving the moving point in step S203 and the process of temporarily stopping each moving point by a virtual force according to the strength of the edge in step S204 are alternately repeated by the operation of tilting the housing by the user. Is done.

図12の例では、図10に示す元画像上の画素の位置に対応する、図11に示す元画像がエッジ検出されたデータ上の画素の位置におけるエッジの強さの値に応じた仮想的な力により、各移動点が一旦停止されている。図12に示す、犬301の耳の部分のエッジ上で一旦停止された移動点1201と、犬301の胴体の部分のエッジ上で一旦停止された移動点1202とでは、図11に示すように、移動点1201の方が、移動点1202よりも高い仮想的な力により一旦停止される。そのため、図12の画面が表示されている際に、さらに画面の上部を起こす姿勢となるように筐体を一定程度傾けると、移動点1201は停止されたまま、移動点1202は画面の下部方向に移動される。そして、移動点1202は、図13に示す移動点1302のように、図11に示すようなエッジの強さに従い、犬301の顔の下部の位置に移動して一旦停止される。 In the example of FIG. 12, the original image shown in FIG. 11 is virtual according to the value of the edge strength at the position of the pixel on the data whose edge is detected, which corresponds to the position of the pixel on the original image shown in FIG. Each moving point is temporarily stopped due to the force. As shown in FIG. 12, the moving point 1201 temporarily stopped on the edge of the ear portion of the dog 301 and the moving point 1202 temporarily stopped on the edge of the body portion of the dog 301 shown in FIG. , The moving point 1201 is temporarily stopped by a higher virtual force than the moving point 1202. Therefore, when the screen of FIG. 12 is displayed, if the housing is tilted to a certain extent so as to raise the upper part of the screen to a certain extent, the moving point 1201 remains stopped and the moving point 1202 moves toward the lower part of the screen. Will be moved to. Then, the moving point 1202 moves to the position of the lower part of the face of the dog 301 according to the strength of the edge as shown in FIG. 11 and is temporarily stopped, as in the moving point 1302 shown in FIG.

図12、及び図13の例では、表示制御部202は、例えば、ユーザにより筐体を傾けられた際に各移動点に仮想的にかかる重力により移動点が滑り落ちるように表示させる。そして、表示制御部202は、各移動点を結ぶ線1002上で隣り合う移動点間のエッジ上の長さが上述した第1閾値以上となっている場合、当該各移動点間のエッジ上の特徴点等の位置に、移動点を追加して表示させている。また、図12、及び図13の例では、表示制御部202は、ユーザにより、画面の上下方向に傾けられることにより、各移動点を結ぶ直線が、オブジェクトに上または下から垂れかかるように停止されて表示させる。そして、表示制御部202は、ユーザにより、画面の左右方向等に傾けられることにより、各移動点を結ぶ直線が、オブジェクトに左右から垂れかかるように停止されて表示させる。 In the example of FIGS. 12 and 13, the display control unit 202 displays, for example, so that the moving points slide down due to the gravity applied to each moving point when the housing is tilted by the user. Then, when the length on the edge between adjacent moving points on the line 1002 connecting the moving points is equal to or more than the above-mentioned first threshold value, the display control unit 202 is on the edge between the moving points. Movement points are added and displayed at the positions of feature points and the like. Further, in the examples of FIGS. 12 and 13, the display control unit 202 is tilted in the vertical direction of the screen by the user, so that the straight line connecting the moving points is stopped so as to hang down on the object from above or below. Is displayed. Then, the display control unit 202 is tilted by the user in the left-right direction of the screen, so that the straight line connecting the movement points is stopped and displayed so as to hang down from the left and right on the object.

続いて、表示制御部202は、受付部201により当該各移動点に含まれる一の移動点がユーザによりタッチ(押下)操作されたことを検知すると(ステップS205)、タッチ操作された移動点の位置を固定する(ステップS206)。図14の例では、表示制御部202は、位置が固定された移動点を、位置が固定されていない移動点と区別できる態様で表示させている。例えば、位置が固定されていない移動点が緑の丸の場合、位置が固定された移動点を、中黒の二重丸(丸中黒)、青の丸等で表示させる。 Subsequently, when the display control unit 202 detects that the reception unit 201 has touched (pressed) one moving point included in each moving point by the user (step S205), the touch-operated moving point of the moving point The position is fixed (step S206). In the example of FIG. 14, the display control unit 202 displays the moving point whose position is fixed so as to be distinguishable from the moving point whose position is not fixed. For example, when the moving point whose position is not fixed is a green circle, the moving point whose position is fixed is displayed by a double circle (round middle black), a blue circle, or the like.

続いて、表示制御部202は、受付部201により受け付けられたユーザの操作に応答して、表示されている原画像において切り抜く領域を指定するための第2の移動点群(「第2の複数の点」)を、上述した第1の移動点群表示した画面の一方の側と向かい合う他方の側から表示させる(ステップS207)。図15の例では、第1の移動点群のうち、ステップS206の処理で位置が固定された移動点のみを表示させている。そして、端末20の画面の下辺付近から、横方向に並べられた複数の移動点1501-1、1501-2、乃至1501-Nと、各移動点を結ぶ線1502(トリミング線)を表示させている。 Subsequently, the display control unit 202 responds to the user's operation accepted by the reception unit 201, and in response to the user's operation, a second moving point group (“second plurality” for designating a region to be cut out in the displayed original image). Point ”) is displayed from the other side facing one side of the screen on which the above-mentioned first moving point cloud is displayed (step S207). In the example of FIG. 15, among the first moving point group, only the moving points whose positions are fixed by the process of step S206 are displayed. Then, from the vicinity of the lower side of the screen of the terminal 20, a plurality of moving points 1501-1, 1501-2, or 1501-N arranged in the horizontal direction and a line 1502 (trimming line) connecting the moving points are displayed. There is.

続いて、第2の移動点群についても、第1の移動点群と同様に、ステップS203乃至ステップS206と同様の処理を行う(ステップS208乃至ステップS211)。これにより、上述した第1の移動点群のうち、ユーザの操作により位置が固定された移動点と、上述した第2の移動点群のうち、ユーザの操作により位置が固定された移動点とにより、切り抜く領域の輪郭が指定される。この場合、表示制御部202は、隣り合う各移動点を通る、原画像から検出したエッジに沿った曲線又は直線により、当該輪郭を算出してもよい。
<第2の実施形態の第1変形例>
次に、図16を参照して、変形例について説明する。図16は、大まかに指定された領域内のエッジを検出した結果のデータの一例を示す図である。上述した第1の実施形態における編集点により切り抜く領域を指定する処理と、第2の実施形態による筐体の傾きに応じて移動点をエッジ上に移動させて切り抜く領域を指定する処理を組み合わせてもよい。
Subsequently, the second moving point group is also subjected to the same processing as in steps S203 to S206 (steps S208 to S211) in the same manner as in the first moving point group. As a result, in the above-mentioned first moving point group, the moving point whose position is fixed by the user's operation, and in the above-mentioned second moving point group, the moving point whose position is fixed by the user's operation. Specifies the outline of the area to be cut out. In this case, the display control unit 202 may calculate the contour by a curve or a straight line along the edge detected from the original image passing through the adjacent moving points.
<First modification of the second embodiment>
Next, a modified example will be described with reference to FIG. FIG. 16 is a diagram showing an example of data as a result of detecting an edge in a roughly specified region. A combination of the process of designating the area to be cut out by the editing point in the first embodiment described above and the process of designating the area to be cut out by moving the moving point on the edge according to the inclination of the housing according to the second embodiment. May be good.

この場合、例えば、図4に示す第1の実施形態の処理により、図7に示すように切り抜く領域を大まかに指定する。そして、図9に示す第2の実施形態のステップS202の処理において、図14に示すように、元画像において当該指定された領域内1401についてのみエッジを検出する。これにより、図9に示すステップS203以降の処理において、より容易に、エッジ上に移動させて切り抜く領域を指定する操作が可能となる。なお、この場合、図9のステップS205等の、ユーザのタッチ操作により移動点の位置を固定する処理を省略してもよい。また、2つ目のトリミング線を用いる図9のステップS207乃至ステップS211の処理を省略してもよい。
<第2の実施形態の第2変形例>
上述した第2の実施形態による筐体の傾きに応じて移動点をエッジ上に移動させて切り抜く領域を指定する処理をした後、上述した第1の実施形態における編集点により切り抜く領域を指定する処理を実行できるようにしてもよい。この場合、上述した移動点は、以下に説明するように、第1の実施形態における編集点として用いられる。
In this case, for example, by the process of the first embodiment shown in FIG. 4, the region to be cut out is roughly specified as shown in FIG. 7. Then, in the process of step S202 of the second embodiment shown in FIG. 9, as shown in FIG. 14, the edge is detected only in the designated region 1401 in the original image. This makes it possible to more easily specify an area to be cut out by moving it on the edge in the processes after step S203 shown in FIG. In this case, the process of fixing the position of the moving point by the user's touch operation, such as step S205 in FIG. 9, may be omitted. Further, the processing of steps S207 to S211 in FIG. 9 using the second trimming line may be omitted.
<Second variant of the second embodiment>
After performing the process of moving the moving point on the edge to specify the area to be cut out according to the inclination of the housing according to the second embodiment described above, the area to be cut out is designated by the editing point in the first embodiment described above. It may be possible to execute the process. In this case, the above-mentioned moving point is used as an editing point in the first embodiment as described below.

まず、表示制御部202は、第2の実施形態の図9に示す処理により、筐体の傾きに応じて移動点をエッジ上に移動させて切り抜く領域を指定する。そして、表示制御部202は、例えば、上述した第1実施形態の図4に示すステップS103乃至ステップS110の処理により、原画像を拡大表示させるとともに、移動点を編集点とし、編集点の数を増加させて表示させる。そして、編集点を指で移動させる操作、または筐体を傾ける操作により、当該編集点を移動させる。
<第2実施形態の効果>
上述した第2の実施形態によれば、筐体の傾きに応じて、原画像において切り抜く領域を指定する点を移動させて表示させる。これにより、原画像中から切り抜く対象のオブジェクトの輪郭を、より容易な操作で、より精度良く指定することができる。また、操作がより容易となるため、結果的に端末20の処理負荷を軽減できるという効果も奏する。
<第3の実施形態>
第3の実施形態は、ユーザのフリック操作やスワイプ操作等の操作に応答して、原画像において切り抜く領域を指定する点を、原画像におけるエッジの位置まで移動させて表示させる形態である。第3の実施形態によれば、画像から切り抜くオブジェクトの領域を比較的高精度かつ容易に指定できる。なお、第3の実施形態は一部を除いて第1の実施形態、または第2の実施形態と同様であるため、適宜説明を省略する。以下では、第1の実施形態、または第2の実施形態と共通する部分については説明を省略し、異なる部分についてのみ説明する。なお、第3の実施形態に記載の内容は、他の各実施形態のいずれにも適用可能である。
<処理>
≪第3実施形態のトリミング処理≫
次に、図17乃至図19を参照し、ステップS3の、ユーザからの操作により切り抜き範囲を編集する際の処理について説明する。図17は、第3実施形態に係る切り抜き範囲を編集する際の処理の一例を示すフローチャートである。図18は、フリック操作により編集点を移動させて表示させる処理について説明する図である。図19A、及び図19Bは、エッジの強さに応じて編集点の移動速度が減衰され、停止させて表示させる処理について説明する図である。
First, the display control unit 202 designates a region to be cut out by moving the moving point on the edge according to the inclination of the housing by the process shown in FIG. 9 of the second embodiment. Then, for example, the display control unit 202 enlarges and displays the original image by the processing of steps S103 to S110 shown in FIG. 4 of the first embodiment described above, sets the moving point as the editing point, and sets the number of editing points. Increase and display. Then, the editing point is moved by an operation of moving the editing point with a finger or an operation of tilting the housing.
<Effect of the second embodiment>
According to the second embodiment described above, the point designating the area to be cut out in the original image is moved and displayed according to the inclination of the housing. As a result, the outline of the object to be cut out from the original image can be specified more accurately with a simpler operation. In addition, since the operation becomes easier, the processing load of the terminal 20 can be reduced as a result.
<Third embodiment>
The third embodiment is a mode in which, in response to an operation such as a flick operation or a swipe operation of the user, a point for designating a region to be cut out in the original image is moved to the position of an edge in the original image and displayed. According to the third embodiment, the area of the object to be cut out from the image can be specified with relatively high accuracy and easily. Since the third embodiment is the same as the first embodiment or the second embodiment except for a part, the description thereof will be omitted as appropriate. In the following, the description of the parts common to the first embodiment or the second embodiment will be omitted, and only the different parts will be described. The contents described in the third embodiment can be applied to any of the other embodiments.
<Processing>
<< Trimming process of the third embodiment >>
Next, with reference to FIGS. 17 to 19, the process of editing the clipping range by the operation from the user in step S3 will be described. FIG. 17 is a flowchart showing an example of processing when editing the clipping range according to the third embodiment. FIG. 18 is a diagram illustrating a process of moving and displaying an edit point by a flick operation. 19A and 19B are diagrams for explaining a process in which the moving speed of the editing point is attenuated according to the strength of the edge, and the processing is stopped and displayed.

ステップS301において、受付部201は、ユーザの操作に応答して、表示されている原画像において切り抜く領域の輪郭を取得する。続いて、表示制御部202は、当該輪郭上に、複数の編集点を表示させる(ステップS302)。 In step S301, the reception unit 201 acquires the outline of the area to be cut out in the displayed original image in response to the user's operation. Subsequently, the display control unit 202 displays a plurality of edit points on the contour (step S302).

ここで、ステップS301、及びステップS302の処理において、上述した第1実施形態の図4に示すステップS101、及びステップS102の処理と同様に、ユーザにより指等でなぞられた輪郭を取得してもよい。または、上述した第1実施形態の図4に示すステップS103乃至ステップS110のいずれかの処理段階における、拡大表示に伴い数が増加された編集点等を表示させてもよい。または、上述した第2実施形態の図9に示すステップS201乃至ステップS211のいずれかの処理段階における移動点を、編集点として用いるようにしてもよい。 Here, in the processing of step S301 and step S302, even if the contour traced by the user with a finger or the like is acquired as in the processing of step S101 and step S102 shown in FIG. 4 of the first embodiment described above. good. Alternatively, the editing points and the like whose number has been increased with the enlarged display in any of the processing stages of steps S103 to S110 shown in FIG. 4 of the first embodiment described above may be displayed. Alternatively, the moving point in any of the processing stages of step S201 to step S211 shown in FIG. 9 of the second embodiment described above may be used as an editing point.

続いて、受付部201は、複数の編集点に含まれる一の編集点(以下で「第1編集点」と称する。)に対するユーザのフリック操作(またはスワイプ操作)を受け付ける(ステップS303)。ここで、フリック操作とは、例えば、タッチパネルを有する画面上で、指を素早く動かしたり、弾いたりするような操作である。また、スワイプ操作とは、タッチパネルを有する画面上で、指を滑らせるような操作である。 Subsequently, the reception unit 201 accepts a user's flick operation (or swipe operation) for one edit point (hereinafter referred to as "first edit point") included in the plurality of edit points (step S303). Here, the flick operation is, for example, an operation such as quickly moving or flipping a finger on a screen having a touch panel. The swipe operation is an operation in which a finger is slid on a screen having a touch panel.

続いて、表示制御部202は、第1編集点と、第1編集点の周辺の編集点(以下で「第2編集点」と称する。)とを、フリック操作の方向に移動させる(ステップS304)。ここで、表示制御部202は、フリック操作の速さに応じた速さで第1編集点を移動させ、フリック操作の速さと、第1編集点と第2編集点との輪郭上の距離とに応じた速さで、第2編集点を移動させる。なお、フリック操作の方向とは、例えば、フリック操作にて指を動かした方向である。また、フリック操作の速さとは、例えば、フリック操作にて指を動かした速さである。 Subsequently, the display control unit 202 moves the first editing point and the editing point around the first editing point (hereinafter referred to as "second editing point") in the direction of the flick operation (step S304). ). Here, the display control unit 202 moves the first edit point at a speed corresponding to the speed of the flick operation, and determines the speed of the flick operation and the distance on the contour between the first edit point and the second edit point. The second edit point is moved at a speed corresponding to. The direction of the flick operation is, for example, the direction in which the finger is moved by the flick operation. The speed of the flick operation is, for example, the speed at which the finger is moved by the flick operation.

図18の例では、表示制御部202は、フリック操作された第1編集点1801からの輪郭上の距離が所定の閾値以下、または第1編集点1801からの隣り合う編集点の数が所定の閾値以下である編集点1802、編集点1803、及び編集点1804を選択する。ここで、所定の閾値としては、少なくとも第1編集点と隣り合う他の編集点が含まれる値としてもよい。 In the example of FIG. 18, in the display control unit 202, the distance on the contour from the flick-operated first editing point 1801 is equal to or less than a predetermined threshold value, or the number of adjacent editing points from the first editing point 1801 is predetermined. Edit points 1802, edit points 1803, and edit points 1804 that are less than or equal to the threshold are selected. Here, the predetermined threshold value may be a value including at least another editing point adjacent to the first editing point.

そして、表示制御部202は、第1編集点1801と、選択した編集点1802との輪郭上の距離を算出し、フリック操作の速さと、算出した距離とに応じた速さを大きさとし、フリック操作の方向を向きとする速度ベクトル1802Aを算出する。ここで、表示制御部202は、当該大きさを、例えば、フリック操作の速さに比例し、算出した距離に反比例した大きさとしてもよい。 Then, the display control unit 202 calculates the distance on the contour between the first editing point 1801 and the selected editing point 1802, sets the speed of the flick operation and the speed corresponding to the calculated distance as the magnitude, and flicks. Calculate the velocity vector 1802A with the direction of operation as the orientation. Here, the display control unit 202 may make the size proportional to, for example, the speed of the flick operation, and inversely proportional to the calculated distance.

また、表示制御部202は、選択した編集点1803、及び編集点1804についても、同様にして速度ベクトル1803A、及び速度ベクトル1804Aをそれぞれ算出する。 Further, the display control unit 202 calculates the velocity vector 1803A and the velocity vector 1804A for the selected edit point 1803 and edit point 1804, respectively.

そして、表示制御部202は、第1編集点1801を、フリック操作の速さに応じた速さ、及びフリック操作の方向を有する速度ベクトル1801Aで移動させるとともに、編集点1802、編集点1803、及び編集点1804を、速度ベクトル1803A、及び速度ベクトル1804Aで移動させる。 Then, the display control unit 202 moves the first edit point 1801 with the speed vector 1801A having the speed corresponding to the speed of the flick operation and the direction of the flick operation, and the edit point 1802, the edit point 1803, and the edit point 1803. The edit point 1804 is moved by the velocity vector 1803A and the velocity vector 1804A.

図18の例では、第1編集点1801からの輪郭上の距離は、編集点1802、編集点1803、及び編集点1804の順に長くなっている。この場合、速度ベクトル1802A、速度ベクトル1803A、速度ベクトル1804Aは、方向はそれぞれ同一であり、速さは、速度ベクトル1802A、速度ベクトル1803A、速度ベクトル1804Aの順に小さくなっている。 In the example of FIG. 18, the distance on the contour from the first editing point 1801 increases in the order of editing point 1802, editing point 1803, and editing point 1804. In this case, the velocity vector 1802A, the velocity vector 1803A, and the velocity vector 1804A have the same direction, and the velocity decreases in the order of the velocity vector 1802A, the velocity vector 1803A, and the velocity vector 1804A.

続いて、表示制御部202は、移動された各編集点が表示されている原画像のエッジの位置に移動すると、元画像のエッジの強さに応じた仮想的な力(粘着力または摩擦力)により、各編集点をエッジ上の位置で停止させて表示させる(ステップS305)。ここで、表示制御部202は、原画像におけるエッジを予め検出しておいてもよい。または、表示制御部202は、移動された各編集点の移動元の位置から移動方向に沿った原画像におけるエッジのみを検出してもよい。これにより、端末20における処理負荷を軽減できる。 Subsequently, when the display control unit 202 moves to the position of the edge of the original image in which each moved edit point is displayed, a virtual force (adhesive force or frictional force) according to the strength of the edge of the original image is displayed. ) Stops and displays each edit point at a position on the edge (step S305). Here, the display control unit 202 may detect an edge in the original image in advance. Alternatively, the display control unit 202 may detect only the edge in the original image along the moving direction from the position of the moving source of each moved editing point. As a result, the processing load on the terminal 20 can be reduced.

ここで、表示制御部202は、例えば、フリック操作の速さと、フリック操作に応答して各編集点が移動する経路上のエッジの強さとに応じて、各編集点の移動の速さを減衰させて停止させてもよい。この場合、表示制御部202は、移動している各編集点について、図19Aに示すように、編集点1901を速度ベクトル1901Aで移動させる。そして、表示制御部202は、移動方向1902上のエッジ1903を通過する際、エッジ1903の強さに応じた仮想的な力により、編集点1901の移動の速さを減衰させる。そして、表示制御部202は、図19Bに示すように、編集点1901を、移動方向は不変であり、速度ベクトル1901Aから速さが減衰された速度ベクトル1901Bで移動させる。そして、表示制御部202は、移動方向1902上のエッジ1904の強さに応じた仮想的な力により、移動方向1902上のエッジ1904の位置で編集点1901を停止させる。 Here, the display control unit 202 attenuates the moving speed of each editing point according to, for example, the speed of the flick operation and the strength of the edge on the path in which each editing point moves in response to the flicking operation. You may let it stop. In this case, the display control unit 202 moves the editing points 1901 by the speed vector 1901A for each moving editing point, as shown in FIG. 19A. Then, when passing through the edge 1903 on the movement direction 1902, the display control unit 202 attenuates the speed of movement of the edit point 1901 by a virtual force corresponding to the strength of the edge 1903. Then, as shown in FIG. 19B, the display control unit 202 moves the edit point 1901 with the speed vector 1901B whose moving direction is invariant and whose speed is attenuated from the speed vector 1901A. Then, the display control unit 202 stops the editing point 1901 at the position of the edge 1904 on the moving direction 1902 by a virtual force corresponding to the strength of the edge 1904 on the moving direction 1902.

続いて、表示制御部202は、移動後の編集点を通る輪郭を算出し、算出した変更後の輪郭を表示させる(ステップS306)。続いて、表示制御部202は、現在表示されている編集点、及び変更後の輪郭に基づいて、表示させる編集点の追加、または削除を行う(ステップS307)。なお、ステップS306乃至ステップS307の処理は、上述した第1実施形態の図4のステップS107乃至ステップS108の処理と同様でもよい。
<第3の実施形態の第1変形例>
表示制御部202は、フリック操作等に応答して、編集点をエッジの位置まで移動させた後、ピンチアウト操作等を受け付けると、上述した第1実施形態の図4に示すステップS103乃至ステップS110の処理を行うようにしてもよい。すなわち、原画像を拡大表示させるとともに、移動点を編集点とし、編集点の数を増加させて表示させる等の処理を行う。そして、拡大表示された状態で、編集点を指で移動させるスライド操作により、当該編集点を指が離された位置まで移動させる。
<第3実施形態の効果>
上述した第3の実施形態によれば、ユーザのフリック操作やスワイプ操作等の操作に応答して、原画像において切り抜く領域を指定する点を、原画像におけるエッジの位置まで移動させて表示させる。これにより、原画像中から切り抜く対象のオブジェクトの輪郭を、より容易な操作で、より精度良く指定することができる。また、操作がより容易となるため、結果的に端末20の処理負荷を軽減できるという効果も奏する。
Subsequently, the display control unit 202 calculates the contour passing through the edited point after the movement, and displays the calculated contour after the change (step S306). Subsequently, the display control unit 202 adds or deletes the edit points to be displayed based on the currently displayed edit points and the changed contour (step S307). The processing of steps S306 to S307 may be the same as the processing of steps S107 to S108 of FIG. 4 of the first embodiment described above.
<First modification of the third embodiment>
When the display control unit 202 receives the pinch-out operation or the like after moving the editing point to the edge position in response to the flick operation or the like, the display control unit 202 receives steps S103 to S110 shown in FIG. 4 of the first embodiment described above. May be processed. That is, the original image is enlarged and displayed, and the moving points are set as editing points, and the number of editing points is increased and displayed. Then, in the enlarged display state, the editing point is moved to the position where the finger is released by the slide operation of moving the editing point with the finger.
<Effect of the third embodiment>
According to the third embodiment described above, in response to an operation such as a flick operation or a swipe operation of the user, a point that specifies a region to be cut out in the original image is moved to the position of an edge in the original image and displayed. As a result, the outline of the object to be cut out from the original image can be specified more accurately with a simpler operation. In addition, since the operation becomes easier, the processing load of the terminal 20 can be reduced as a result.

<その他>
なお、上述した実施形態では、端末20にインストールされたアプリケーション等において画像処理を行う例について説明したが、サーバ10において画像処理を行うようにしてもよい。この場合、例えば、端末20の受付部201は、ユーザによる操作内容をサーバ10に通知し、サーバ10の表示制御部102により端末20の表示画面の制御を行い、サーバ10の制御部103がトリミング等の画像処理を行うようにしてもよい。
<Others>
In the above-described embodiment, an example of performing image processing in an application installed on the terminal 20 has been described, but image processing may be performed on the server 10. In this case, for example, the reception unit 201 of the terminal 20 notifies the server 10 of the operation content by the user, the display control unit 102 of the server 10 controls the display screen of the terminal 20, and the control unit 103 of the server 10 trims. The image processing such as may be performed.

受付部201は、「取得部」の一例である。画像処理部203は、「切り取り部」の一例である。サーバ10、及び端末20は、それぞれ、「情報処理装置」の一例である。 The reception unit 201 is an example of the “acquisition unit”. The image processing unit 203 is an example of a “cutting unit”. The server 10 and the terminal 20 are examples of "information processing devices", respectively.

本開示の実施形態を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本開示の範囲に含まれることに留意されたい。限定でなく例として、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、各実施形態に示す構成を適宜組み合わせることとしてもよい。 Although the embodiments of the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and modifications based on the present disclosure. Therefore, it should be noted that these modifications and modifications are within the scope of this disclosure. As an example without limitation, the functions included in each means, each step, etc. can be rearranged so as not to be logically inconsistent, and a plurality of means, steps, etc. can be combined or divided into one. Is possible. Further, the configurations shown in each embodiment may be appropriately combined.

10 サーバ
101 取得部
102 表示制御部
103 制御部
20 端末
201 受付部
202 表示制御部
203 画像処理部
204 制御部
205 傾き検出部
10 Server 101 Acquisition unit 102 Display control unit 103 Control unit 20 Terminal 201 Reception unit 202 Display control unit 203 Image processing unit 204 Control unit 205 Tilt detection unit

Claims (8)

情報処理装置に、
第1画像を表示させる第1表示ステップと、
前記第1画像において切り抜く領域の輪郭を取得するステップと、
前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させる第2表示ステップと、
ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる第3表示ステップと、
前記複数の編集点により指定される輪郭内の第2画像を切り抜くステップと、
を実行させるプログラム。
For information processing equipment
The first display step to display the first image and
The step of acquiring the outline of the area to be cut out in the first image, and
A second display step of displaying a plurality of edit points for modifying the contour on the contour, respectively.
A third display step in which the first image is enlarged and displayed in response to a user operation and the number of the plurality of editing points is increased and displayed.
A step of cropping a second image within the contour specified by the plurality of editing points,
A program to execute.
前記第2表示ステップは、第1編集点と第2編集点とを表示させ、
前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上の長さが第1閾値以上の場合、前記第1編集点から前記第2編集点までの前記輪郭上に、第3編集点を表示させる、
請求項1に記載のプログラム。
In the second display step, the first edit point and the second edit point are displayed.
In the third display step, when the length on the contour from the first editing point to the second editing point is equal to or greater than the first threshold value, the third display step is on the contour from the first editing point to the second editing point. To display the third edit point,
The program according to claim 1.
前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上で、前記第1編集点と前記第2編集点とからそれぞれ前記輪郭上の長さが第2閾値以上離れた位置に、前記第3編集点を表示させる、
請求項2に記載のプログラム。
In the third display step, the length on the contour from the first editing point to the second editing point is equal to or larger than the second threshold value from the first editing point and the second editing point, respectively. Display the third edit point at a distant position.
The program according to claim 2.
前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上の特徴点に、前記第3編集点を表示させる、
請求項2または3に記載のプログラム。
In the third display step, the third edit point is displayed at the feature points on the contour from the first edit point to the second edit point.
The program according to claim 2 or 3.
前記第3表示ステップは、前記第1編集点から前記第2編集点までの前記輪郭上の中間の点に、前記第3編集点を表示させる、
請求項2または3に記載のプログラム。
The third display step causes the third edit point to be displayed at an intermediate point on the contour from the first edit point to the second edit point.
The program according to claim 2 or 3.
ユーザの操作に応答して、前記第3表示ステップにより表示された前記複数の編集点のうち、1以上の編集点の位置を変更するステップと、
ユーザの操作に応答して、前記第3表示ステップにより拡大して表示された前記第1画像を縮小して表示させるとともに、前記変更するステップにより位置が変更された編集点は表示を継続し、前記変更するステップにより位置が変更されていない編集点の数を減少させて表示させる第4表示ステップと、
を実行する請求項1から5のいずれか一項に記載のプログラム。
A step of changing the position of one or more edit points among the plurality of edit points displayed by the third display step in response to a user operation.
In response to the user's operation, the first image enlarged and displayed by the third display step is reduced and displayed, and the editing point whose position has been changed by the changing step continues to be displayed. A fourth display step in which the number of edit points whose positions have not been changed by the change step is reduced and displayed.
The program according to any one of claims 1 to 5.
情報処理装置が、
第1画像を表示させる第1表示ステップと、
前記第1画像において切り抜く領域の輪郭を取得するステップと、
前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させる第2表示ステップと、
ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる第3表示ステップと、
前記第1画像における前記複数の編集点により指定される輪郭内の第2画像を切り抜くステップと、
を実行する情報処理方法。
Information processing equipment
The first display step to display the first image and
The step of acquiring the outline of the area to be cut out in the first image, and
A second display step of displaying a plurality of edit points for modifying the contour on the contour, respectively.
A third display step in which the first image is enlarged and displayed in response to a user operation and the number of the plurality of editing points is increased and displayed.
A step of cutting out a second image in the contour designated by the plurality of editing points in the first image, and
Information processing method to execute.
表示されている第1画像において切り抜く領域の輪郭を取得する取得部と、
前記輪郭を修正するための複数の編集点を、前記輪郭上にそれぞれ表示させ、ユーザの操作に応答して、前記第1画像を拡大して表示させるとともに、前記複数の編集点の数を増加させて表示させる表示制御部と、
前記第1画像における前記複数の編集点により指定される輪郭内の第2画像を切り抜く切り抜き部と、
を有する情報処理装置。
The acquisition unit that acquires the outline of the area to be cut out in the displayed first image, and the acquisition unit.
A plurality of editing points for correcting the contour are displayed on the contour, respectively, and the first image is enlarged and displayed in response to a user operation, and the number of the plurality of editing points is increased. The display control unit that lets you display
A cutout portion for cutting out the second image in the contour designated by the plurality of editing points in the first image, and
Information processing device with.
JP2019542940A 2017-09-25 2017-09-25 Programs, information processing methods, and information processing equipment Active JP6995867B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/034438 WO2019058539A1 (en) 2017-09-25 2017-09-25 Program, information processing method, and information processing device

Publications (2)

Publication Number Publication Date
JPWO2019058539A1 JPWO2019058539A1 (en) 2020-11-19
JP6995867B2 true JP6995867B2 (en) 2022-01-17

Family

ID=65809624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019542940A Active JP6995867B2 (en) 2017-09-25 2017-09-25 Programs, information processing methods, and information processing equipment

Country Status (2)

Country Link
JP (1) JP6995867B2 (en)
WO (1) WO2019058539A1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3429618B2 (en) * 1995-11-24 2003-07-22 大日本スクリーン製造株式会社 Image layout device with image component clipping function

Also Published As

Publication number Publication date
WO2019058539A1 (en) 2019-03-28
JPWO2019058539A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6960249B2 (en) Programs, display methods and information processing terminals
EP2701152B1 (en) Media object browsing in a collaborative window, mobile client editing, augmented reality rendering.
KR102137240B1 (en) Method for adjusting display area and an electronic device thereof
EP3091426B1 (en) User terminal device providing user interaction and method therefor
CN107657934B (en) Method and mobile device for displaying images
US20160357428A1 (en) Display device, display controlling method, and computer program
CN112328353B (en) Display method and device of sub-application player, electronic equipment and storage medium
US9357132B2 (en) Video rolling shutter correction for lens movement in optical image stabilization cameras
JP7395070B1 (en) Video processing methods and devices, electronic equipment and computer-readable storage media
CN110908554B (en) Long screenshot method and terminal device
JP6433923B2 (en) Providing a specific object location to the device
TW201642115A (en) An icon adjustment method, an icon adjustment system and an electronic device thereof
US11263814B2 (en) Method, apparatus, and storage medium for rendering virtual channel in multi-world virtual scene
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
KR102113509B1 (en) Method for controlling a virtual keypad and an electronic device thereof
JP7007168B2 (en) Programs, information processing methods, and information processing equipment
US10261602B2 (en) Hop navigation
US20150095817A1 (en) Adaptive determination of information display
DE202017104855U1 (en) Animating an image to indicate that the image is floating
JP7029913B2 (en) Programs, information processing methods, and information processing equipment
CN107705275B (en) Photographing method and mobile terminal
JP6995867B2 (en) Programs, information processing methods, and information processing equipment
JP6918660B2 (en) Programs, information processing methods, and information processing equipment
US20170139563A1 (en) Image data generation apparatus and non-transitory computer-readable recording medium
WO2023210352A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210412

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211215

R150 Certificate of patent or registration of utility model

Ref document number: 6995867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350