WO2017126222A1 - 表示制御装置、表示制御方法及びコンピュータプログラム - Google Patents

表示制御装置、表示制御方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2017126222A1
WO2017126222A1 PCT/JP2016/085053 JP2016085053W WO2017126222A1 WO 2017126222 A1 WO2017126222 A1 WO 2017126222A1 JP 2016085053 W JP2016085053 W JP 2016085053W WO 2017126222 A1 WO2017126222 A1 WO 2017126222A1
Authority
WO
WIPO (PCT)
Prior art keywords
auxiliary line
display
screen
user
image processing
Prior art date
Application number
PCT/JP2016/085053
Other languages
English (en)
French (fr)
Inventor
大輔 廣
綾子 岩瀬
綾 高岡
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201680078696.7A priority Critical patent/CN108476278A/zh
Priority to DE112016006250.8T priority patent/DE112016006250T5/de
Priority to US15/779,185 priority patent/US11039072B2/en
Publication of WO2017126222A1 publication Critical patent/WO2017126222A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present disclosure relates to a display control device, a display control method, and a computer program.
  • Patent Document 1 discloses a technique for improving the visibility of an auxiliary line.
  • the level and the auxiliary line prepared in advance do not satisfy the user's request.
  • the present disclosure proposes a new and improved display control apparatus, display control method, and computer program capable of performing control to display an auxiliary line that satisfies the user's request and assists composition determination.
  • a display control device including a control unit that controls a display mode on a screen of auxiliary lines that assist composition determination during imaging in accordance with the user's operation on the screen.
  • a display control method including controlling a display mode on the screen of auxiliary lines that assist composition determination at the time of imaging in accordance with a user operation on the screen.
  • a computer program that causes a computer to control a display mode of an auxiliary line on a screen, which assists composition determination at the time of imaging, in accordance with a user operation on the screen.
  • a new and improved display control device As described above, according to the present disclosure, a new and improved display control device, a display control method, and a display control device that can perform control to display an auxiliary line that satisfies a user's request and assists composition determination.
  • a computer program can be provided.
  • FIG. 3 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to an embodiment of the present disclosure.
  • 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit
  • FIG. 5 is a flowchart illustrating an operation example of the image processing apparatus 100 according to an embodiment of the present disclosure.
  • 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 11 is an explanatory diagram illustrating an example of an image displayed on the display unit 110.
  • FIG. 5 is an explanatory diagram illustrating an example of auxiliary line drawing processing by the image processing apparatus 100.
  • FIG. FIG. 4 is an explanatory diagram illustrating an example of a state in which four image processing apparatuses 100a to 100d are capturing the same subject.
  • a user who uses a digital still camera or a digital video camera to capture an image of a landscape, a building, or the like as a subject has a desire to ensure levelness or a precise composition setting.
  • digital still cameras and digital video cameras have a function to display a level and auxiliary lines on the viewfinder and display that assist the photographer (user) in determining the composition during imaging. Many are equipped.
  • a level or an auxiliary line prepared in advance by the digital still camera can assist the user in determining the composition at the time of imaging.
  • the level indicates to the user whether or not the digital camera is horizontal, and the auxiliary line is drawn at equal intervals vertically and horizontally, for example, to assist in imaging a three-part composition. Yes.
  • the user can take an image with the above-described general composition by determining the composition using a level or an auxiliary line displayed on the finder or display.
  • the level line or auxiliary line prepared in advance by the digital still camera may not assist the user in determining the composition at the time of imaging.
  • the level can indicate whether the digital still camera is horizontal, but the horizontal of the digital still camera may not be horizontal in terms of composition.
  • existing auxiliary lines are often displayed as a screen divided vertically and horizontally in order to capture images with a general composition, but it is difficult to determine the composition with existing level or auxiliary lines. There is also.
  • the existing level and auxiliary lines are displayed as straight lines, which may be difficult to use for determining the composition. Further, when it is desired to strictly determine the composition of a subject such as a building, the existing level or auxiliary line may not assist the composition determination.
  • the present disclosure has intensively studied a technique that can display an auxiliary line desired by the user during imaging.
  • the present inventor has devised a technique capable of displaying an auxiliary line desired by the user at the time of imaging according to the user's operation.
  • FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to an embodiment of the present disclosure.
  • a configuration example of the image processing apparatus 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the image processing apparatus 100 includes an imaging unit 102, a sensor unit 104, an input unit 106, a storage unit 108, a display unit 110, a communication unit 112, a bus 116, and a control. Part 118 is provided.
  • Imaging unit The imaging unit 102 is a camera module that captures an image, which includes a zoom lens focus lens, an imaging element, and the like.
  • the imaging unit 102 images a real space using an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and generates a captured image.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • a series of captured images generated by the imaging unit 102 constitutes an image that reflects a real space.
  • the imaging unit 102 is not necessarily a part of the image processing apparatus 100.
  • an imaging apparatus connected to the image processing apparatus 100 by wire or wireless may be handled as the imaging unit 102.
  • the zoom lens and the focus lens in the imaging unit 102 may be provided so as to be detachable from the image processing apparatus 100.
  • the sensor unit 104 may include various sensors such as a positioning sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, or an atmospheric pressure sensor.
  • the position, posture, or movement of the image processing apparatus 100 that can be measured by the sensor unit 104 includes the recognition of the position and posture of the camera, the acquisition of data specialized for the geographical position, or the recognition of the instruction from the user.
  • the sensor unit 104 that may be used for various applications may be omitted from the configuration of the image processing apparatus 100.
  • a GNSS Global Navigation Satellite System
  • the GNSS includes, for example, GPS (Global Positioning System), GLONASS (Global Navigation Satelite System), BDS (BeiDo Navigation Satelite System), QZSS (Quasi-Zethy, etc.).
  • GPS Global Positioning System
  • GLONASS Global Navigation Satelite System
  • BDS BeiDo Navigation Satelite System
  • QZSS Quadasi-Zethy, etc.
  • wireless LAN MIMO (Multi-Input Multi-Output), cellular communication (for example, position detection using a mobile base station, femtocell), or short-range wireless communication (for example, BLE (Bluetooth Low Energy). ), Bluetooth (registered trademark)) or the like to detect the position may be included.
  • MIMO Multi-Input Multi-Output
  • cellular communication for example, position detection using a mobile base station, femtocell
  • short-range wireless communication for example, BLE (Bluetooth Low Energy).
  • Bluetooth registered
  • the input unit 106 is an input device used by the user to operate the image processing apparatus 100 or input information to the image processing apparatus 100.
  • the input unit 106 may include, for example, a touch sensor that detects a user's touch on the screen of the display unit 110.
  • the touch sensor is desirably capable of detecting two or more contacts, but is not limited to one capable of detecting two or more contacts.
  • the input unit 106 may include a pointing device such as a mouse or a touchpad.
  • the input unit 106 may include other types of input devices such as a keyboard, keypad, buttons, or switches.
  • the storage unit 108 is configured by a storage medium such as a semiconductor memory or a hard disk, and stores a program and data for processing by the image processing apparatus 100.
  • the data stored by the storage unit 108 can include, for example, captured image data, sensor data, and auxiliary line data described later. Note that some of the programs and data described in this specification may be acquired from an external data source (for example, a data server, a network storage, or an external memory) without being stored in the storage unit 108. .
  • the display unit 110 is a display module including a display such as an LCD (Liquid Crystal Display) or an OLED (Organic light-Emitting Diode).
  • the display unit 110 is used to display an output image generated by the image processing apparatus 100, for example.
  • the display unit 110 is not necessarily a part of the image processing apparatus 100.
  • a display device connected to the image processing apparatus 100 by wire or wireless may be handled as the display unit 110.
  • the display unit 110 displays, for example, a through image, that is, a subject image sequentially captured by the imaging unit 102 under the control of the control unit 118.
  • An auxiliary line is drawn on the display unit 110 under the control of the control unit 118.
  • the auxiliary line displayed on the display unit 110 can be superimposed on the through image, but may not be superimposed on the through image.
  • the communication unit 112 is a communication interface that mediates communication between the image processing apparatus 100 and other apparatuses.
  • the communication unit 112 supports an arbitrary wireless communication protocol or wired communication protocol, and establishes a communication connection with another device.
  • Bus The bus 116 connects the imaging unit 102, the sensor unit 104, the input unit 106, the storage unit 108, the display unit 110, the communication unit 112, and the control unit 118 to each other.
  • the control unit 118 corresponds to a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the control unit 118 operates various functions of the image processing apparatus 100 to be described later by executing a program stored in the storage unit 108 or another storage medium.
  • control unit 118 causes the display unit 110 to display an auxiliary line that assists in determining the composition at the time of image capturing by the user in response to a user input operation on the input unit 106.
  • the control unit 118 causes the display unit 110 to display an auxiliary line that assists the determination of the composition at the time of image capturing by the user in response to a user input operation on the input unit 106, so that the image processing apparatus 100 is desired by the user.
  • An auxiliary line can be displayed on the display unit 110.
  • FIG. 2 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 2 shows an example of the operation of the image processing apparatus 100 when displaying an auxiliary line that assists in determining the composition at the time of image capturing by the user in accordance with the input operation of the user.
  • an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the image processing apparatus 100 waits until detecting an input operation by the user to start drawing an auxiliary line using the input unit 106 (step S101).
  • the control unit 118 detects the input operation.
  • the image processing apparatus 100 draws an auxiliary line on the display unit 110 in accordance with a predetermined input operation using the input unit 106 of the user from the setting screen of the image processing apparatus 100 displayed on the display unit 110. It is possible to transition to the screen and accept an input operation for drawing an auxiliary line.
  • the image processing apparatus 100 may recognize a user's predetermined gesture operation on the touch panel provided on the display unit 110 and may transition to a screen for drawing an auxiliary line on the display unit 110. There is a strong demand for the user not to move the image processing apparatus 100 after fixing the image processing apparatus 100 with a tripod or the like. Therefore, the image processing apparatus 100 can satisfy the user's request by transitioning to a screen for drawing an auxiliary line on the display unit 110 by a user's predetermined gesture operation on the touch panel provided on the display unit 110.
  • the image processing apparatus 100 continues to display subject images (through images) sequentially captured by the imaging unit 102 on the display unit 110 while the screen for drawing the auxiliary line on the display unit 110 is displayed on the display unit 110. May be.
  • the image processing apparatus 100 draws an auxiliary line on the display unit 110 in accordance with a predetermined input operation using the input unit 106 of the user in a state where the through image is continuously displayed on the display unit 110, thereby The auxiliary line can be arbitrarily drawn by the user efficiently.
  • the image processing apparatus 100 reads one image from the images stored in the storage unit 108 while the screen for drawing the auxiliary line on the display unit 110 is displayed on the display unit 110, and reads the image.
  • the displayed image may be continuously displayed on the display unit 110.
  • the image processing apparatus 100 draws an auxiliary line on the display unit 110 in accordance with a predetermined input operation using the input unit 106 of the user while the image read from the storage unit 108 is continuously displayed on the display unit 110. By doing so, the auxiliary line can be arbitrarily drawn by the user more efficiently.
  • the input operation for starting the drawing of the auxiliary line is not limited to a specific operation.
  • the image processing apparatus 100 may start drawing auxiliary lines on the display unit 110.
  • the image processing apparatus 100 displays the auxiliary line on the display unit 110. Drawing (editing or moving) may be started.
  • step S101, Yes When an input operation to start drawing an auxiliary line using the input unit 106 by the user is detected (step S101, Yes), the image processing apparatus 100 subsequently responds to the input operation using the input unit 106 by the user.
  • the auxiliary line is drawn on the display unit 110 (step S102).
  • the control unit 118 performs drawing of the auxiliary line on the display unit 110 according to the input operation.
  • the image processing apparatus 100 stands by until an input operation by the user to finish drawing the auxiliary line using the input unit 106 is detected (step S103).
  • the image processing apparatus 100 finishes drawing the auxiliary line according to the user's input operation.
  • FIG. 3 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 3 shows an operation example of the image processing apparatus 100 when drawing an auxiliary line on the display unit 110 to assist in determining the composition at the time of image capturing by the user in accordance with the input operation of the user.
  • an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the image processing apparatus 100 controls the auxiliary line on the display unit 110, the auxiliary line addition process (step S111) and the auxiliary line drawing process (step S112) according to the input operation of the user. , And auxiliary line movement processing (step S113). Further, the image processing apparatus 100 performs an accuracy improvement process (step S114) of the drawn auxiliary line in accordance with a user input operation.
  • the input operation for improving the accuracy of the auxiliary line is, for example, an operation for enlarging or reducing the image displayed on the display unit 110.
  • an operation for enlarging the image for example, a pinch-out operation for the display unit 110
  • a pinch-in operation on the display unit 110 or an operation for reducing provided in the input unit 106 can be used. .
  • FIG. 4 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 4 shows an operation example of the image processing apparatus 100 when performing auxiliary line addition processing and auxiliary line drawing processing.
  • the image processing apparatus 100 detects that the user has performed a predetermined operation for specifying the starting point of the auxiliary line (for example, touching or approaching the display unit 110 with a finger or the like) (step S121), the user is to set the operation.
  • the starting point of the auxiliary line is set on the display unit 110.
  • FIG. 5 is an explanatory diagram showing a state in which the user performs an operation of designating the starting point of the auxiliary line.
  • FIG. 5 is an explanatory diagram illustrating a state in which the finger of the user's hand U1 contacts one point on the upper side of the display unit 110 as a predetermined operation for designating the starting point of the auxiliary line.
  • the control unit 118 sets the position where the finger of the user's hand U1 touches as the starting point of the auxiliary line.
  • the image processing apparatus 100 detects that the user has performed a predetermined operation for adjusting the length or angle of the auxiliary line (for example, a drag operation from the position of the starting point of the auxiliary line to the display unit 110) (step S110).
  • a predetermined operation for adjusting the length or angle of the auxiliary line for example, a drag operation from the position of the starting point of the auxiliary line to the display unit 110.
  • FIG. 6 is an explanatory diagram illustrating a state in which the user performs an operation of adjusting the length and angle of the auxiliary line.
  • FIG. 6 is an explanatory diagram showing a state in which the user's finger U1 is dragged from the position shown in FIG. 5 as an operation for adjusting the length and angle of the auxiliary line.
  • the control unit 118 draws an auxiliary line on the display unit 110 as a straight line from the position of the start point in accordance with the drag operation.
  • step S123 when the image processing apparatus 100 detects that the user has performed a predetermined operation for designating the end point of the auxiliary line (for example, release of contact or proximity of a finger or the like to the display unit 110) (step S123).
  • the end point of the auxiliary line to be set by the user is set on the display unit 110.
  • FIG. 7 is an explanatory diagram showing a state in which the user performs an operation of designating the end point of the auxiliary line.
  • FIG. 7 is an explanatory diagram illustrating a state in which the finger of the user's hand U1 is separated from the display unit 110 as a predetermined operation for specifying the end point of the auxiliary line.
  • the control unit 118 sets the position where the finger of the user's hand U1 is separated from the display unit 110 as the end point of the auxiliary line.
  • the image processing apparatus 100 can draw an auxiliary line on the display unit 110 according to a user operation by executing the above-described series of operations.
  • the image processing apparatus 100 can draw a plurality of auxiliary lines on the display unit 110 in accordance with a user operation.
  • the image processing apparatus 100 may set an upper limit on the number of auxiliary lines that can be drawn in accordance with a user operation.
  • the image processing apparatus 100 draws auxiliary lines on the display unit 110 in accordance with a user operation, so that the image processing apparatus 100 can display auxiliary lines desired by the user at the time of shooting on the display unit 110.
  • the image processing apparatus 100 is configured to display the auxiliary line.
  • the through image may be continuously displayed on the display unit 110 when the auxiliary line is drawn on the display unit 110 in accordance with the operation.
  • the display unit 110 arbitrarily draws the auxiliary line by allowing the user to specify the starting point of the auxiliary line and dragging it to the end point of the auxiliary line. It is not limited to such an example.
  • the image processing apparatus 100 may draw the auxiliary line on the display unit 110 by causing the user to sequentially specify the starting point and the end point of the auxiliary line.
  • FIG. 8 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 8 shows an example of the operation of the image processing apparatus 100 when the auxiliary line parallel movement process is performed.
  • the image processing apparatus 100 detects that the user has performed a predetermined operation (for example, contact or proximity of a finger or the like to the display unit 110) for designating an auxiliary line to be translated (step S131), the user The auxiliary line to be translated is determined.
  • a predetermined operation for example, contact or proximity of a finger or the like to the display unit 110
  • FIG. 9 is an explanatory diagram showing a state where the user performs an operation of designating an auxiliary line to be translated.
  • FIG. 9 is an explanatory diagram showing a state in which the finger of the user's hand U1 contacts one point on the auxiliary line displayed on the display unit 110 as a predetermined operation for specifying the auxiliary line to be translated.
  • the control unit 118 When detecting that the finger of the user's hand U1 has touched one point on the auxiliary line displayed on the display unit 110, the control unit 118 translates the auxiliary line at the position where the finger of the user's hand U1 is in contact. Set the target.
  • the image processing apparatus 100 detects that the user has performed a predetermined operation for performing parallel movement of the auxiliary line (for example, a drag operation on the display unit 110 from the contact position of the auxiliary line) (step S132), the user The auxiliary line drawn on the display unit 110 is translated in accordance with the operation.
  • a predetermined operation for performing parallel movement of the auxiliary line for example, a drag operation on the display unit 110 from the contact position of the auxiliary line
  • FIG. 10 is an explanatory diagram showing a state in which the user performs an operation of moving the auxiliary line in parallel.
  • FIG. 10 is an explanatory diagram showing a state where a drag operation of the finger of the user's hand U1 from the position shown in FIG. 9 is performed as an operation for translating the auxiliary line.
  • the control unit 118 When it is detected that the user is performing a drag operation, the control unit 118 translates the auxiliary line drawn on the display unit 110 in accordance with the drag operation.
  • step S133 when the image processing apparatus 100 detects that the user has performed a predetermined operation for ending the parallel movement of the auxiliary line (for example, contact with the display unit 110 or release of proximity) (step S133).
  • a predetermined operation for ending the parallel movement of the auxiliary line for example, contact with the display unit 110 or release of proximity
  • FIG. 11 is an explanatory diagram showing a state in which the user performs an operation for ending the parallel movement of the auxiliary line.
  • FIG. 11 is an explanatory diagram illustrating a state in which the finger of the user's hand U1 is separated from the display unit 110 as the predetermined operation for ending the parallel movement of the auxiliary line.
  • the control unit 118 ends the parallel movement of the auxiliary line drawn on the display unit 110.
  • the image processing apparatus 100 can be used by the user.
  • the through image may be continuously displayed on the display unit 110 when the auxiliary line is drawn on the display unit 110 in accordance with the operation.
  • FIG. 12 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 12 shows an example of the operation of the image processing apparatus 100 when the auxiliary line rotational movement process is performed.
  • FIG. 13 is an explanatory diagram illustrating a state in which the user performs an operation of specifying an auxiliary line to be moved.
  • FIG. 13 is an explanatory diagram showing a state in which two fingers of the user's hand U1 are in contact with both ends of the auxiliary line displayed on the display unit 110 as a predetermined operation for specifying the auxiliary line to be moved. is there.
  • the control unit 118 rotates the auxiliary line at the position where the finger of the user's hand U1 is in contact with the rotation line.
  • FIG. 14 is an explanatory diagram illustrating a state where the user performs an operation of rotating and moving the auxiliary line.
  • FIG. 14 is an explanatory diagram showing a state where the user's finger U1 is dragged from the position shown in FIG. 13 as an operation for rotating the auxiliary line.
  • the control unit 118 rotates the auxiliary line drawn on the display unit 110 in response to the drag operation.
  • FIG. 15 is an explanatory diagram illustrating a state in which the user performs an operation to end the movement of the auxiliary line.
  • FIG. 15 is an explanatory diagram showing a state in which two fingers of the user's hand U1 are separated from the display unit 110 as a predetermined operation for ending the rotational movement of the auxiliary line.
  • FIGS. 13 to 15 show a state in which only the auxiliary line drawn according to the user's operation is displayed on the display unit 110.
  • the image processing apparatus 100 is configured by the user. The through image may be continuously displayed on the display unit 110 when the auxiliary line is drawn on the display unit 110 in accordance with the operation.
  • the operation of rotating the auxiliary line by the user is not limited to this example.
  • the image processing apparatus 100 performs the operation based on the operation.
  • the auxiliary line drawn on the display unit 110 may be rotated.
  • FIG. 16 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 16 shows an example of the operation of the image processing apparatus 100 when the accuracy improvement processing of the auxiliary line drawn on the display unit 110 is performed.
  • the image processing apparatus 100 detects that the user has performed a predetermined operation (for example, a pinch-out operation with respect to the display unit 110) for enlarging the image of the display unit 110 in order to improve the accuracy of the auxiliary line (step S151). Then, a process of enlarging the image on the display unit 110 is performed.
  • a predetermined operation for example, a pinch-out operation with respect to the display unit 110
  • FIG. 17 is an explanatory diagram showing a state after the enlargement process is performed on the display unit 110.
  • FIG. 17 shows a state where the original image p1 before enlargement and the image p2 after enlargement on which the auxiliary line s1 is superimposed are displayed on the display unit 110.
  • the image p1 may be an image (through image) captured by the imaging unit 102.
  • the image processing apparatus 100 detects that the user has performed a predetermined operation for improving the accuracy of the auxiliary line (for example, a drag operation on the display unit 110 from the contact position of the auxiliary line) (step S152), the user The auxiliary line drawn on the display unit 110 is translated in accordance with the operation.
  • a predetermined operation for improving the accuracy of the auxiliary line for example, a drag operation on the display unit 110 from the contact position of the auxiliary line
  • FIG. 18 is an explanatory diagram showing a state in which the user performs an operation of moving the auxiliary line s1 in parallel.
  • FIG. 18 is an explanatory diagram showing a state where a drag operation of the finger of the user's hand U1 from the position shown in FIG. 17 is performed as an operation for translating the auxiliary line s1.
  • the control unit 118 When detecting that the user is performing a drag operation, the control unit 118 translates the auxiliary line s1 drawn on the display unit 110 in accordance with the drag operation.
  • the predetermined operation for improving the accuracy of the auxiliary line is not limited to the parallel movement of the auxiliary line s1, and the auxiliary line s1 may be rotationally moved.
  • FIG. 19 is an explanatory diagram illustrating a state after the reduction process is performed on the display unit 110.
  • FIG. 19 shows a state in which the original image p1 on which the auxiliary line s1 is superimposed is displayed on the display unit 110.
  • the image processing apparatus 100 can improve the accuracy of the auxiliary line for the user by receiving the enlargement process of the image displayed on the display unit 110 in this way.
  • the image processing apparatus 100 can display an auxiliary line on the display unit 110 to assist the user's imaging in response to a user operation.
  • the image processing apparatus 100 can effectively assist the user in determining the composition by superimposing the auxiliary line on the through image when displaying the auxiliary line on the display unit 110 according to the user's operation.
  • the present disclosure is not limited to such an example, and the image processing apparatus 100 may The drawing of the auxiliary line by a device such as a stylus may be accepted instead of a part of the body.
  • the image processing apparatus 100 draws the auxiliary line on the display unit 110 according to the user's operation, but the present disclosure is not limited to the example.
  • image processing may be performed on an image captured by the imaging unit 102 and an auxiliary line may be displayed on the display unit 110 in accordance with the result of the image processing.
  • the image processing apparatus 100 draws the auxiliary line on the display unit 110 in accordance with a user operation.
  • the edge of the building may be detected by image processing, and an auxiliary line may be drawn at the position of the edge.
  • FIG. 20 is an explanatory diagram illustrating an example of auxiliary line drawing processing by the image processing apparatus 100.
  • FIG. 20 illustrates an example of a process of superimposing and drawing an auxiliary line on the image p11 by image processing on the image p11 captured by the imaging unit 102.
  • the image processing apparatus 100 generates an image p12 through a predetermined filter for edge detection on the image p11 captured by the imaging unit 102. Then, the image processing apparatus 100 performs edge detection on the image p12 and draws the auxiliary line s11 on the edge having the longest straight line portion, for example.
  • the image processing apparatus 100 can, of course, perform parallel movement processing, rotational movement processing, and accuracy improvement processing on the auxiliary line s11 drawn in this way in accordance with the user's operation.
  • the image processing apparatus 100 may store the auxiliary line drawn by the user in an external apparatus through the storage unit 108 or the communication unit 112.
  • the image processing apparatus 100 may automatically store the auxiliary line or may perform it according to a predetermined operation by the user.
  • the image processing apparatus 100 may store the auxiliary line together with position information, orientation information, and the like.
  • the image processing apparatus 100 may read out the stored auxiliary line according to a predetermined operation by the user. Further, when reading the auxiliary line, the image processing apparatus 100 may determine the auxiliary line to be read using current position information and orientation information of the image processing apparatus 100. If the information on the position and orientation of the image processing apparatus 100 that set the auxiliary line is stored together with the information on the auxiliary line, the image processing apparatus 100 matches or is similar to the information on the position and orientation. Auxiliary lines can be read out. When the image processing apparatus 100 reads the auxiliary line, the auxiliary line set by another user is used by the user by determining the auxiliary line to be read using the current position information and the direction information of the image processing apparatus 100. Thus, it can be used as a reference for imaging.
  • the image processing apparatus 100 may store an image in a state where an auxiliary line set by the user is superimposed when the captured image is stored in the storage unit 108.
  • the image processing apparatus 100 can allow the user to check how the auxiliary line is used in the captured image by storing an image in which the auxiliary line set by the user is superimposed.
  • the image processing apparatus 100 may display another auxiliary line related to the auxiliary line drawn on the display unit 110 in accordance with a predetermined operation using the input unit 106 of the user or a predetermined gesture operation.
  • the image processing apparatus 100 can display the horizontal or vertical direction of the display unit 110 as viewed from the auxiliary line drawn on the display unit 110 in accordance with a predetermined operation using the input unit 106 or a predetermined gesture operation of the user.
  • another auxiliary line may be newly drawn at a position that is line symmetric.
  • the image processing apparatus 100 can assist imaging in a composition in which a vertical and horizontal balance is achieved by drawing a new auxiliary line at a line-symmetric position.
  • the image processing apparatus 100 can cause the display unit 110 to draw a line other than a straight line as an auxiliary line.
  • the image processing apparatus 100 may allow the user to freely draw a line on the display unit 110 as an auxiliary line.
  • an operation of drawing a line an operation of drawing a perfect circle or an ellipse, a regular triangle, a regular line, or the like.
  • the figure may be drawn on the display unit 110 as an auxiliary line.
  • the image processing apparatus 100 sets the connected lines together.
  • Auxiliary lines formed as two figures may be drawn on the display unit 110.
  • the image processing apparatus 100 may change the color, line type, and shape of the auxiliary line according to the imaging mode at the time of imaging.
  • the imaging mode refers to the aperture, shutter speed, ISO sensitivity, white balance, color tone and saturation, face recognition, depending on the subject to be imaged and the situation at the time of imaging when imaging the subject using the image processing apparatus 100. This is for automatically setting parameters such as presence / absence, presence / absence of strobe light emission, presence / absence of slow sync.
  • the image processing apparatus 100 may cause the user to draw the auxiliary line freehand instead of a straight line. This is because natural scenery is often composed of curves rather than straight lines. Further, for example, when the user selects a mode suitable for capturing a person as an image capturing mode, the image processing apparatus 100 causes the user to draw an auxiliary line with a perfect circle or an ellipse so that the face of the person can be accommodated instead of a straight line. You may do it.
  • the image processing apparatus 100 may change the color, line type, and shape of the auxiliary line according to the shutter speed and aperture setting set by the user, in addition to the imaging mode at the time of imaging.
  • the image processing apparatus 100 may change the candidate of the auxiliary line to be drawn by the user depending on the posture obtained from the sensor data acquired by the sensor unit 104 and whether or not it is fixed to a tripod.
  • the image processing apparatus 100 may change the candidate of the auxiliary line to be drawn by the user from the sensor data acquired by the sensor unit 104 depending on whether the image processing apparatus 100 is in the portrait orientation or the landscape orientation. .
  • the image processing apparatus 100 may change the line type or shape of the auxiliary line to be drawn by the user depending on whether the image to be captured is a still image or a moving image. This is because the shape and form of the auxiliary line desired by the user may differ depending on whether the image to be captured is a still image or a moving image.
  • the image processing apparatus 100 may change the line type or shape of the auxiliary line to be drawn by the user based on the recognition result of the image captured by the imaging unit 102.
  • the control unit 118 can execute recognition of an image captured by the imaging unit 102.
  • the auxiliary line is not a straight line but the person's face.
  • the user may be drawn with a perfect circle or an ellipse so that the
  • the image processing apparatus 100 is a candidate for an auxiliary line to be drawn by the user according to the characteristics of the lens provided in the imaging unit 102 (or attached to the image processing apparatus 100 when the lens is detachable). May be changed.
  • the image processing apparatus 100 uses the auxiliary line that the user draws depending on whether the lens provided in the imaging unit 102 is a normal lens that is a central projection lens or a fisheye lens that is an equidistant projection lens.
  • the candidates may be changed.
  • the control unit 118 can know in advance which lens is attached to the image processing apparatus 100 or by communication with the lens. For example, if the imaging unit 102 includes a lens that increases distortion of a captured image, such as a fisheye lens, the image processing apparatus 100 displays an arcuate auxiliary line instead of a straight line according to a user operation. It may be drawn on the unit 110.
  • the above-described drawing of the auxiliary line may be performed by, for example, a mobile terminal such as a smartphone or a tablet terminal that issues an imaging instruction in cooperation with the camera.
  • a mobile terminal that displays an image captured by a camera may perform a process of drawing an auxiliary line on the screen in accordance with a user operation.
  • FIG. 21 is an explanatory diagram showing an example of a state in which the four image processing apparatuses 100a to 100d are capturing the same subject.
  • the image processing apparatus 100a When the image processing apparatus 100a draws an auxiliary line on the display unit 110 in accordance with a user operation, the information on the auxiliary line may be transmitted to the other image processing apparatuses 100b to 100d.
  • the image processing apparatuses 100b to 100d that have received the auxiliary line information from the image processing apparatus 100a may draw auxiliary lines on the respective display units 110 in accordance with the positions drawn by the image processing apparatus 100a.
  • the information on the auxiliary line is linked between the devices, so that when the same subject is imaged using the plurality of image processing devices 100, the alignment of the subject becomes easy. For example, when it is desired to align the position of the subject in the image in the vertical direction, the alignment can be facilitated by interlocking the positions of the auxiliary lines with the plurality of image processing apparatuses 100a to 100d.
  • auxiliary line drawing process by the image processing apparatus 100 described above can be used for medical purposes, for example.
  • an endoscopic surgery system that performs an operation while imaging a patient's body with an endoscope
  • a screen that displays an image captured by the endoscope Auxiliary lines can be drawn on the screen according to the operation of the surgeon.
  • the image processing apparatus 100 may erase one or all of the auxiliary lines drawn on the display unit 110 based on a user's predetermined operation. Further, the image processing apparatus 100 may duplicate the auxiliary line drawn on the display unit 110 in accordance with a user's predetermined operation. This auxiliary line duplication function is useful when the user wants to use a plurality of auxiliary lines drawn freehand.
  • the image processing apparatus 100 that arbitrarily draws an auxiliary line for assisting imaging on a screen in accordance with a user operation.
  • the image processing apparatus 100 detects, for example, an operation due to contact or proximity of a user's finger or the like with respect to the display unit 110, and sets an auxiliary line to the display unit 110 according to the detected operation Draw.
  • the image processing apparatus 100 arbitrarily draws an auxiliary line for assisting imaging on the screen according to the user's operation, so that the auxiliary line desired by the user at the time of imaging is displayed. It can be displayed.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • each functional block shown in the functional block diagram used in the above description may be realized by a server device connected via a network such as the Internet.
  • the configuration of each functional block shown in the functional block diagram used in the above description may be realized by a single device or a system in which a plurality of devices cooperate.
  • a system in which a plurality of devices are linked may include, for example, a combination of a plurality of server devices, a combination of a server device and a terminal device, or the like.
  • the input device on which the user performs the drawing operation of the auxiliary line may be a device worn by the user such as a glasses-type wearable device or an HMD (Head Mounted Display), and the user detected by these devices Various inputs may be performed for drawing the auxiliary line according to the gesture and the line of sight.
  • the input device on which the user performs an auxiliary line drawing operation may be a camera capable of detecting the user's movement.
  • Various inputs for drawing an auxiliary line may be performed in accordance with a user's gesture or line of sight detected from an image captured by the camera.
  • the input device on which the user performs the drawing operation of the auxiliary line may be a microphone capable of collecting the user's voice.
  • Various inputs for drawing an auxiliary line can be performed by voice through the microphone.
  • a display control apparatus comprising: a control unit that controls a display mode on a screen of an auxiliary line that assists composition determination at the time of imaging according to a user operation on the screen.
  • the said control part is a display control apparatus as described in said (1) which superimposes on the through image displayed on the said screen, and displays the said auxiliary line.
  • the display control device according to any one of (1) to (3), wherein the control unit displays an auxiliary line on the screen based on a recognition result of a subject.
  • the control unit displays another auxiliary line related to the already displayed auxiliary line when the auxiliary line is displayed on the screen according to the detected operation, (1) to (8)
  • the display control apparatus in any one of. 10
  • the said control part is a display control apparatus as described in said (9) which displays another auxiliary line so that it may become line symmetrical in the said screen, when displaying the said auxiliary line on the said screen according to the said detected operation.
  • (11) The display control device according to any one of (1) to (10), wherein the control unit controls display of the auxiliary line on a screen according to characteristics of a lens used during imaging.
  • a display control method comprising: controlling a display mode on a screen of an auxiliary line that assists composition determination at the time of imaging according to a user operation on the screen.
  • a computer program that causes a computer to control a display mode of an auxiliary line on a screen for assisting composition determination during imaging in accordance with a user operation on the screen.
  • Image processing device 102 Imaging unit 104: Sensor unit 106: Input unit 108: Storage unit 110: Display unit 112: Communication unit 116: Bus 118: Control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】ユーザの要求を満たした、構図決定の補助となる補助線を表示する制御を行うことが可能な表示制御装置を提供する。 【解決手段】撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置が提供される。係る表示制御装置は、ユーザの要求を満たした、構図決定の補助となる補助線を表示する制御を行うことが可能となる。

Description

表示制御装置、表示制御方法及びコンピュータプログラム
 本開示は、表示制御装置、表示制御方法及びコンピュータプログラムに関する。
 デジタルスチルカメラやデジタルビデオカメラは、撮像者(ユーザ)にとって撮像時の構図決定の補助となる水準器や補助線を、ファインダやディスプレイに表示する機能を備えているものが多い。例えば特許文献1には、補助線の視認性を向上させるための技術が開示されている。
特開2005-198035号公報
 しかし、ユーザが撮像しようとする被写体によっては、予め用意されている水準器や補助線ではユーザの要求を満たさない。
 そこで本開示では、ユーザの要求を満たした、構図決定の補助となる補助線を表示する制御を行うことが可能な、新規かつ改良された表示制御装置、表示制御方法及びコンピュータプログラムを提案する。
 本開示によれば、画面に対するユーザの前記操作に応じて、撮像時における構図決定の補助となる補助線の画面への表示態様を制御する制御部を備える、表示制御装置が提供される。
 また本開示によれば、画面に対するユーザの操作に応じて、撮像時における構図決定の補助となる補助線の画面への表示態様を制御することを含む、表示制御方法。
 また本開示によれば、コンピュータに、画面に対するユーザの操作に応じて、撮像時における構図決定の補助となる補助線の画面への表示態様を制御することを実行させる、コンピュータプログラム。
 以上説明したように本開示によれば、ユーザの要求を満たした、構図決定の補助となる補助線を表示する制御を行うことが可能な、新規かつ改良された表示制御装置、表示制御方法及びコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施の形態に係る画像処理装置100の構成例を示すブロック図である。 本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。 本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。 本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 表示部110に表示される画像の例を示す説明図である。 画像処理装置100による補助線の描画処理の例を示す説明図である。 4台の画像処理装置100a~100dが同一の被写体を撮像している様子の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施の形態
  1.1.背景
  1.2.構成例
  1.3.動作例
 2.まとめ
 <1.本開示の実施の形態>
 [1.1.背景]
 まず、本開示の実施の形態の背景について説明する。
 上述したように、デジタルスチルカメラやデジタルビデオカメラを使用して風景や建物等を被写体として撮像するユーザは、確実に水平を出したいという欲求や、正確に構図設定したい欲求がある。そのようなユーザの欲求を満たすために、デジタルスチルカメラやデジタルビデオカメラは、撮像者(ユーザ)にとって撮像時の構図決定の補助となる水準器や補助線を、ファインダやディスプレイに表示する機能を備えているものが多い。
 日の丸構図、三分割構図などの一般的な構図で撮像する場合は、デジタルスチルカメラが予め用意している水準器や補助線がユーザの撮像時の構図決定の補助となりうる。水準器は、デジタルカメラが水平になっているかどうかをユーザに提示するものであり、補助線は、例えば三分割構図の撮像の際の補助となるように縦や横に等間隔で引かれている。ユーザは、ファインダやディスプレイに表示される水準器や補助線を使用して構図を決定することで、上述した一般的な構図での撮像が可能になる。しかし、ユーザが撮像しようとする被写体によっては、デジタルスチルカメラが予め用意している水準線や補助線がユーザの撮像時の構図決定の補助とならない場合がある。
 例えば、水準器はデジタルスチルカメラが水平かどうかを提示することが出来るが、デジタルスチルカメラの水平が構図的には水平では無い場合がある。また、既存の補助線は、一般的な構図で撮像するために画面を縦及び横に三分割するように表示されることが多いが、既存の水準器や補助線では構図を決定しにくい場合もある。
 また、自然の風景など被写体が主に曲線で構成いる場合には、既存の水準器や補助線は直線で表示されるために構図の決定に利用しにくい場合がある。さらに、建物などの被写体の構図を厳密に決定したい場合に既存の水準器や補助線は構図決定の補助とならない場合もある。
 従って、既存の補助線や水準器では、ユーザの要求に完全に応えることが出来ていなかった。
 そこで本件開示者は、上述した背景に鑑み、撮像時にユーザが所望する補助線を表示することが出来る技術について鋭意検討を行った。その結果、本件開示者は、ユーザの操作に応じて撮像時にユーザが所望する補助線を表示することが出来る技術を考案するに至った。
 以上、本開示の実施の形態の背景について説明した。続いて、本開示の実施の形態について詳細に説明する。
 [1.2.構成例]
 まず、本開示の実施の形態に係る画像処理装置100の構成例について説明する。図1は、本開示の実施の形態に係る画像処理装置100の構成例を示すブロック図である。以下、図1を用いて本開示の実施の形態に係る画像処理装置100の構成例について説明する。
 図1に示したように、本開示の実施の形態に係る画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
 (1)撮像部
 撮像部102は、ズームレンズフォーカスレンズ、撮像素子などからなる、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、実空間を映す映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。また、撮像部102におけるズームレンズやフォーカスレンズは、画像処理装置100から着脱可能に設けられていても良い。
 (2)センサ部
 センサ部104は、測位センサ、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどの様々なセンサを含み得る。センサ部104により測定され得る画像処理装置100の位置、姿勢又は動きは、カメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
 測位センサとしては、例えば具体的には、GNSS(Global Navigation Satellite System)受信機、および/または通信装置などを含みうる。GNSSは、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)、QZSS(Quasi-Zenith Satellites System)、またはGalileoなどを含みうる。また測位センサとしては、例えば、無線LAN、MIMO(Multi-Input Multi-Output)、セルラー通信(例えば携帯基地局を使った位置検出、フェムトセル)、または近距離無線通信(例えばBLE(Bluetooth Low Energy)、Bluetooth(登録商標))などの技術を利用して位置を検出するものが含まれうる。
 (3)入力部
 入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。当該タッチセンサは、2点以上の接触を検知可能であることが望ましいが、2点以上の接触を検知可能なものに限定されるものではない。その代わりに(又はそれに加えて)、入力部106は、マウスまたはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
 (4)記憶部
 記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する補助線データを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
 (5)表示部
 表示部110は、LCD(Liquid Crystal Display)またはOLED(Organic light-Emitting Diode)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
 表示部110には、制御部118の制御により、例えば、スルー画像、すなわち、撮像部102が逐次撮像する被写体画像が表示される。また表示部110には、制御部118の制御により補助線が描画される。表示部110に表示される補助線は、上記スルー画像に重畳されうるが、スルー画像に重畳されていなくてもよい。
 (6)通信部
 通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
 (7)バス
 バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
 (8)制御部
 制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
 本実施形態では、制御部118は、入力部106に対するユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示部110に表示させる。制御部118が、入力部106に対するユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示部110に表示させることで、画像処理装置100は、ユーザが所望する補助線を表示部110に表示することができる。
 以上、図1を用いて本開示の実施の形態に係る画像処理装置100の構成例について説明した。続いて、本開示の実施の形態に係る画像処理装置100の動作例について説明する。
 [1.3.動作例]
 図2は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図2に示したのは、ユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示する際の、画像処理装置100の動作例である。以下、図2を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明する。
 画像処理装置100は、ユーザによる、入力部106を使用した補助線の描画を開始する入力操作を検出するまで待機する(ステップS101)。入力操作の検出は制御部118が行う。
 画像処理装置100は、例えば、表示部110に表示される画像処理装置100の設定画面から、ユーザの入力部106を使用した所定の入力操作に応じて、補助線を表示部110に描画するための画面に遷移して、補助線を描画するための入力操作の受け付けを行っても良い。また画像処理装置100は、表示部110に設けられるタッチパネルに対するユーザの所定のジェスチャ操作を認識して、補助線を表示部110に描画するための画面に遷移してもよい。ユーザは、画像処理装置100を三脚等で固定した後は、その画像処理装置100を動かしたくないという要求が強い。従って画像処理装置100は、表示部110に設けられるタッチパネルに対するユーザの所定のジェスチャ操作によって補助線を表示部110に描画するための画面に遷移することで、ユーザの上記要求を満たすことが出来る。
 画像処理装置100は、補助線を表示部110に描画するための画面を表示部110に表示している間、撮像部102が逐次撮像する被写体画像(スルー画像)を表示部110に表示し続けても良い。画像処理装置100は、スルー画像を表示部110に表示し続けている状態で、ユーザの入力部106を使用した所定の入力操作に応じて、補助線を表示部110に描画することで、より効率的にユーザに補助線を任意に描画させることができる。
 画像処理装置100は、補助線を表示部110に描画するための画面を表示部110に表示している間、記憶部108に保存されている画像の中から1枚の画像を読み出し、その読み出した画像を表示部110に表示し続けても良い。画像処理装置100は、記憶部108から読み出した画像を表示部110に表示し続けている状態で、ユーザの入力部106を使用した所定の入力操作に応じて、補助線を表示部110に描画することで、より効率的にユーザに補助線を任意に描画させることができる。
 補助線の描画を開始する入力操作は特定の操作に限定されるものでは無い。例えば、後述するように、表示部110の縁の部分をユーザの指が接触または近接すると、画像処理装置100は表示部110への補助線の描画を開始しても良い。また例えば、後述するように、既に表示部110に補助線が描画されている状態において、その補助線をユーザの指が接触または近接すると、画像処理装置100は表示部110へのその補助線の描画(編集や移動)を開始しても良い。
 ユーザによる、入力部106を使用した補助線の描画を開始する入力操作を検出すると(ステップS101、Yes)、続いて画像処理装置100は、ユーザによる、入力部106を使用した入力操作に応じた補助線の表示部110への描画を行う(ステップS102)。入力操作に応じた補助線の表示部110への描画は制御部118が行う。
 そして画像処理装置100は、ユーザによる、入力部106を使用した補助線の描画を終了する入力操作を検出するまで待機する(ステップS103)。ユーザによる、入力部106を使用した補助線の描画を終了する入力操作を検出すると(ステップS103、Yes)、画像処理装置100は、ユーザの入力操作に応じた補助線の描画を終了する。
 以上、図2を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明した。続いて、画像処理装置100による補助線の描画の具体例について詳細に説明する
 図3は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図3に示したのは、ユーザの入力操作に応じて、ユーザの撮像時の構図決定の補助となる補助線を表示部110に描画する際の、画像処理装置100の動作例である。以下、図3を用いて本開示の実施の形態に係る画像処理装置100の動作例について説明する。
 画像処理装置100(制御部118)は、補助線を表示部110に描画する際に、ユーザの入力操作に応じて、補助線の追加処理(ステップS111)、補助線の描画処理(ステップS112)、及び補助線の移動処理(ステップS113)を行う。また画像処理装置100は、ユーザの入力操作に応じて、描画した補助線の精度向上処理(ステップS114)を行う。補助線の精度向上のための入力操作は、例えば表示部110に表示されている画像の拡大や縮小のための操作であり、画像の拡大の操作としては、例えば表示部110に対するピンチアウト操作や、入力部106に設けられている拡大のための操作があり、画像の縮小の操作としては、例えば表示部110に対するピンチイン操作や、入力部106に設けられている縮小のための操作がありうる。
 表示部110への補助線の追加処理(ステップS111)及び補助線の描画処理(ステップS112)の例について説明する。図4は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図4に示したのは、補助線の追加処理及び補助線の描画処理を行う際の画像処理装置100の動作例である。
 画像処理装置100は、補助線の始点の指定を行う所定の操作(例えば、表示部110への指などの接触または近接)をユーザが行ったことを検出すると(ステップS121)、ユーザが設定しようとする補助線の始点を表示部110へ設定する。
 図5は、ユーザが補助線の始点を指定する操作を行う様子を示す説明図である。図5は、補助線の始点の指定を行う所定の操作として、ユーザの手U1の指が表示部110の上辺の1点に接触する様子を示す説明図である。ユーザの手U1の指が表示部110の上辺の1点に接触したことを検出すると、制御部118は、ユーザの手U1の指が接触した位置を補助線の始点に設定する。
 続いて画像処理装置100は、補助線の長さや角度の調整を行う所定の操作(例えば、表示部110に対する補助線の始点の位置からのドラッグ操作)をユーザが行ったことを検出すると(ステップS122)、ユーザが設定しようとする補助線の長さや角度を表示部110へ設定する。
 図6は、ユーザが補助線の長さや角度を調整する操作を行う様子を示す説明図である。図6は、補助線の長さや角度を調整する操作として、図5に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、補助線を始点の位置から直線で表示部110に描画する。
 続いて画像処理装置100は、補助線の終点の指定を行う所定の操作(例えば、表示部110への指などの接触または近接の解除)をユーザが行ったことを検出すると(ステップS123)、ユーザが設定しようとする補助線の終点を表示部110へ設定する。
 図7は、ユーザが補助線の終点を指定する操作を行う様子を示す説明図である。図7は、補助線の終点の指定を行う所定の操作として、ユーザの手U1の指が表示部110から離れた様子を示す説明図である。ユーザの手U1の指が表示部110から離れたことを検出すると、制御部118は、ユーザの手U1の指が表示部110から離れた位置を補助線の終点に設定する。
 画像処理装置100は、上述の一連の動作を実行することで、ユーザの操作に応じて補助線を表示部110に描画することができる。もちろん、画像処理装置100はユーザの操作に応じて複数の補助線を表示部110に描画することができる。ただ、補助線を増やしすぎると帰って構図決定の妨げとなる場合もあると考えられるので、画像処理装置100は、ユーザの操作に応じて描画できる補助線の数に上限を設けても良い。画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画することで、画像処理装置100は、ユーザが撮影時に所望する補助線を表示部110に表示することができる。なお、図5~図7にはユーザの操作に応じて描画される補助線のみが表示部110に表示されている状態が示されているが、上述したように、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画する際にスルー画像を表示部110に表示し続けていてもよい。
 また、図5~図7で示した例では、ユーザに補助線の始点を指定させて補助線の終点までドラッグさせることで表示部110に補助線を任意に描画させていたが、本開示は係る例に限定されるものではない。画像処理装置100は、補助線の始点及び終点の2点をユーザに順次指定させることで表示部110に補助線を描画してもよい。
 画像処理装置100は、表示部110に一度描画した補助線を、ユーザの操作に応じて移動したり変形したりすることができる。続いて、表示部110への補助線の移動処理(ステップS113)の例について説明する。図8は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図8に示したのは、補助線の平行移動処理を行う際の画像処理装置100の動作例である。
 画像処理装置100は、平行移動対象の補助線の指定を行う所定の操作(例えば、表示部110への指などの接触または近接)をユーザが行ったことを検出すると(ステップS131)、ユーザが平行移動させようとする補助線を決定する。
 図9は、ユーザが平行移動対象の補助線を指定する操作を行う様子を示す説明図である。図9は、平行移動対象の補助線の指定を行う所定の操作として、ユーザの手U1の指が表示部110に表示されている補助線上の1点に接触する様子を示す説明図である。ユーザの手U1の指が表示部110に表示されている補助線上の1点に接触したことを検出すると、制御部118は、ユーザの手U1の指が接触した位置にある補助線を平行移動対象に設定する。
 続いて画像処理装置100は、補助線の平行移動を行う所定の操作(例えば、補助線の接触位置からの表示部110に対するドラッグ操作)をユーザが行ったことを検出すると(ステップS132)、ユーザの操作に応じて表示部110に描画している補助線を平行移動させる。
 図10は、ユーザが補助線を平行移動させる操作を行う様子を示す説明図である。図10は、補助線を平行移動させる操作として、図9に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、表示部110に描画している補助線を平行移動させる。
 続いて画像処理装置100は、補助線の平行移動を終了する所定の操作(例えば、表示部110への指などの接触または近接の解除)をユーザが行ったことを検出すると(ステップS133)、表示部110に描画している補助線の平行移動を終了する。
 図11は、ユーザが補助線の平行移動を終了する操作を行う様子を示す説明図である。図11は、補助線の平行移動を終了する所定の操作として、ユーザの手U1の指が表示部110から離れた様子を示す説明図である。ユーザの手U1の指が表示部110から離れたことを検出すると、制御部118は、表示部110に描画している補助線の平行移動を終了する。
 なお、図9~図11にはユーザの操作に応じて描画される補助線のみが表示部110に表示されている状態が示されているが、上述したように、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画する際にスルー画像を表示部110に表示し続けていてもよい。
 図12は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図12に示したのは、補助線の回転移動処理を行う際の画像処理装置100の動作例である。
 画像処理装置100は、回転移動対象の補助線の指定を行う所定の操作(例えば、表示部110への指などの接触または近接)をユーザが行ったことを検出すると(ステップS141)、ユーザが移動させようとする補助線を決定する。図13は、ユーザが移動対象の補助線を指定する操作を行う様子を示す説明図である。図13は、移動対象の補助線の指定を行う所定の操作として、ユーザの手U1の2本の指がそれぞれ表示部110に表示されている補助線の両端に接触する様子を示す説明図である。ユーザの手U1の指が表示部110に表示されている補助線の両端に接触したことを検出すると、制御部118は、ユーザの手U1の指が接触した位置にある補助線を回転移動対象に設定する。
 続いて画像処理装置100は、補助線の回転移動を行う所定の操作(例えば、補助線の接触位置からの表示部110に対するドラッグ操作)をユーザが行ったことを検出すると(ステップS142)、ユーザの操作に応じて表示部110に描画している補助線を回転移動させる。図14は、ユーザが補助線を回転移動させる操作を行う様子を示す説明図である。図14は、補助線を回転移動させる操作として、図13に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、表示部110に描画している補助線を回転移動させる。
 続いて画像処理装置100は、補助線の回転移動を終了する所定の操作(例えば、表示部110への指などの接触または近接の解除)をユーザが行ったことを検出すると(ステップS143)、表示部110に描画している補助線の回転移動を終了する。図15は、ユーザが補助線の移動を終了する操作を行う様子を示す説明図である。図15は、補助線の回転移動を終了する所定の操作として、ユーザの手U1の指が2本とも表示部110から離れた様子を示す説明図である。ユーザの手U1の指が2本とも表示部110から離れたことを検出すると、制御部118は、表示部110に描画している補助線の回転移動を終了する。なお、図13~図15にはユーザの操作に応じて描画される補助線のみが表示部110に表示されている状態が示されているが、上述したように、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画する際にスルー画像を表示部110に表示し続けていてもよい。
 ユーザによる補助線の回転移動の操作は係る例に限定されるものではない。例えば、ユーザが補助線の一端を指で接触した状態で別の指で補助線上の任意の場所を接触してドラッグ操作を行ったことを検出すると、画像処理装置100は、その操作に基づいて表示部110に描画している補助線を回転移動させてもよい。
 次に、表示部110へ描画した補助線の精度向上処理(ステップS114)の例について説明する。図16は、本開示の実施の形態に係る画像処理装置100の動作例を示す流れ図である。図16に示したのは、表示部110へ描画した補助線の精度向上処理を行う際の画像処理装置100の動作例である。
 画像処理装置100は、補助線の精度向上を行うために表示部110の画像を拡大する所定の操作(例えば、表示部110に対するピンチアウト操作)をユーザが行ったことを検出すると(ステップS151)、表示部110の画像を拡大する処理を行う。
 図17は、表示部110に対する拡大処理が行われた後の状態を示す説明図である。図17には、表示部110に拡大前の元の画像p1及び、補助線s1が重畳されている拡大後の画像p2が表示されている状態が示されている。なお、画像p1は、撮像部102が撮像している画像(スルー画像)であってもよい。
 続いて画像処理装置100は、補助線の精度向上を行う所定の操作(例えば、補助線の接触位置からの表示部110に対するドラッグ操作)をユーザが行ったことを検出すると(ステップS152)、ユーザの操作に応じて表示部110に描画している補助線を平行移動させる。
 図18は、ユーザが補助線s1を平行移動させる操作を行う様子を示す説明図である。図18は、補助線s1を平行移動させる操作として、図17に示した位置からのユーザの手U1の指のドラッグ操作を行っている様子を説明図である。ユーザがドラッグ操作を行っていることを検出すると、制御部118は、そのドラッグ操作に応じて、表示部110に描画している補助線s1を平行移動させる。もちろん、補助線の精度向上を行う所定の操作によって行われるのは補助線s1の平行移動に限られず、補助線s1の回転移動が行われても良い。
 画像処理装置100は、補助線の精度向上を終了するために表示部110の画像を縮小する(元の表示に戻す)所定の操作(例えば、表示部110に対するピンチイン操作)をユーザが行ったことを検出すると(ステップS153)、表示部110の画像を縮小して元の表示に戻す処理を行う。図19は、表示部110に対する縮小処理が行われた後の状態を示す説明図である。図19には、表示部110に補助線s1が重畳されている元の画像p1が表示されている状態が示されている。
 画像処理装置100は、このように表示部110に表示している画像の拡大処理を受け付けることで、ユーザに補助線の精度を向上させることが出来る。
 以上説明したように、画像処理装置100は、ユーザの操作に応じて、ユーザの撮像の補助となる補助線を表示部110に表示することが出来る。画像処理装置100は、ユーザの操作に応じて補助線を表示部110に表示する際に、スルー画像に重畳することで、ユーザの構図決定を効果的に補助することが可能になる。
 上述の説明では、操作体の一例としてユーザが指を使用して補助線を任意に描画する例を示したが、本開示は係る例に限定されるものではなく、画像処理装置100は、ユーザの身体の一部では無く、スタイラスなどのデバイスによる補助線の描画を受け付けても良い。
 上述の例では、画像処理装置100は、ユーザの操作に応じて補助線を表示部110に描画していたが、本開示は係る例に限定されるものではない。例えば、撮像部102が撮像している画像に対する画像処理を行い、その画像処理の結果に応じて補助線を表示部110に表示してもよい。
 例えば、撮像部102が撮像している画像に建物が含まれ、その建物の境界に補助線を合わせたい場合に、画像処理装置100はユーザの操作に応じて補助線を表示部110に描画することも出来るが、画像処理によってその建物のエッジを検出し、そのエッジの位置に補助線を描画しても良い。
 図20は、画像処理装置100による補助線の描画処理の例を示す説明図である。図20に示したのは、撮像部102が撮像している画像p11に対する画像処理によって補助線を画像p11に重畳して描画する処理の一例である。画像処理装置100は、撮像部102が撮像している画像p11にエッジ検出のための所定のフィルタを通して画像p12を生成する。そして画像処理装置100は、画像p12に対してエッジ検出を行い、例えば直線部分が最も長いエッジに補助線s11を描画する。
 画像処理装置100は、このように描画した補助線s11に対しても、もちろんユーザの操作に応じて平行移動処理や回転移動処理、精度向上処理を行いうる。
 画像処理装置100は、ユーザに描画させた補助線を、記憶部108や、通信部112を通じて外部の装置に保存してもよい。画像処理装置100は、補助線の保存を自動的に行っても良く、ユーザの所定の操作に応じて行っても良い。画像処理装置100は、補助線を保存する際には、位置情報や向きの情報等と一緒に保存しても良い。
 また、画像処理装置100は、保存した補助線を、ユーザの所定の操作に応じて読み出してもよい。また画像処理装置100は、補助線を読み出す際に、画像処理装置100の現在位置情報や向きの情報を用いて読み出す補助線を決定しても良い。補助線の情報と一緒にその補助線を設定した画像処理装置100の位置や向きの情報が保存されていれば、画像処理装置100は、その位置や向きの情報に合致した、または似ていた補助線を読み出すことが出来る。画像処理装置100は、補助線を読み出す際に、画像処理装置100の現在位置情報や向きの情報を用いて読み出す補助線を決定することで、他のユーザが設定した補助線をユーザに使用させて、撮像の参考にさせることが可能になる。
 また画像処理装置100は、撮像した画像を記憶部108に保存する際に、ユーザが設定した補助線が重畳された状態の画像を保存しても良い。画像処理装置100は、ユーザが設定した補助線が重畳された状態の画像を保存することで、補助線がどのように撮像画像に生かされているかをユーザに確認させることが出来る。
 画像処理装置100は、ユーザの入力部106を使用した所定の操作や、所定のジェスチャ操作に応じて、表示部110に描画した補助線に関係した別の補助線を表示させても良い。例えば、画像処理装置100は、ユーザの入力部106を使用した所定の操作や、所定のジェスチャ操作に応じて、表示部110に描画した補助線から見て、表示部110の水平方向または垂直方向に線対称となる位置に、別の補助線を新たに描画しても良い。画像処理装置100は、線対称となる位置に新たな補助線を描画することで、上下または左右のバランスが取れた構図での撮像の補助となりうる。
 画像処理装置100は、補助線として直線以外のものもユーザに表示部110に描画させることができる。画像処理装置100は、例えば、補助線としてユーザに自由に線を表示部110に描画させても良く、また線を描画する操作の他に、正円や楕円を描画する操作、正三角形、正四角形その他の図形を描画する操作に応じて、補助線としてそれらの図形を表示部110に描画しても良い。また画像処理装置100は、例えば、複数の線が補助線として表示部110に描画されている状態で、ユーザの操作によってそれぞれの線の端部が連結されると、その連結された線を一つの図形とした補助線を表示部110に描画しても良い。
 画像処理装置100は、撮像時の撮像モードに応じて補助線の色や線種、形状を変化させても良い。撮像モードとは、画像処理装置100を使用して被写体を撮像する際に、撮像する被写体や撮像時の状況に応じて、絞り、シャッタ速度、ISO感度、ホワイトバランス、色調や彩度、顔認識の有無、ストロボ発光の有無、スローシンクロの有無、等のパラメータを自動的に設定するためのものである。
 例えば、ユーザが撮像モードとして風景の撮像に適したモードを選択した場合、画像処理装置100は、補助線を直線ではなくフリーハンドでユーザに描画させるようにしてもよい。自然の風景は直線では無く曲線で構成されることが多いからである。また例えば、ユーザが撮像モードとして人物の撮像に適したモードを選択した場合、画像処理装置100は、補助線を直線ではなく、人物の顔が収まるように正円や楕円などでユーザに描画させるようにしてもよい。
 なお画像処理装置100は、撮像時の撮像モードの他に、ユーザが設定したシャッタ速度や絞りの設定によって補助線の色や線種、形状を変化させても良い。
 画像処理装置100は、センサ部104が取得したセンサデータにより得られる姿勢や、三脚への固定の有無によって、ユーザに描画させる補助線の候補を変化させても良い。例えば、画像処理装置100は、センサ部104が取得したセンサデータから、画像処理装置100が縦向きであるか、横向きであるかに応じてユーザに描画させる補助線の候補を変化させても良い。
 また画像処理装置100は、撮像しようとする画像が静止画なのか動画なのかで、ユーザに描画させる補助線の線種や形状などを変化させても良い。撮像しようとする画像が静止画なのか動画なのかで、ユーザが所望する補助線の形状や形態は異なる場合もあるからである。
 また画像処理装置100は、撮像部102が撮像している画像の認識結果に基づいてユーザに描画させる補助線の線種や形状などを変化させても良い。撮像部102が撮像している画像の認識は制御部118が実行しうる。画像処理装置100は、撮像部102が撮像している画像を認識して、撮像部102が撮像している画像に人物の顔が含まれていれば、補助線を直線ではなく、人物の顔が収まるように正円や楕円などでユーザに描画させるようにしてもよい。
 また画像処理装置100は、撮像部102に備えられている(レンズが着脱可能である場合には、画像処理装置100に装着された)レンズが有する特性に応じてユーザに描画させる補助線の候補を変化させても良い。例えば画像処理装置100は、撮像部102に備えられているレンズが、中心射影方式のレンズである通常のレンズか、等距離射影方式のレンズである魚眼レンズかに応じて、ユーザに描画させる補助線の候補を変化させても良い。
 制御部118は、どのようなレンズが画像処理装置100に装着されているかを、予め、またはレンズとの通信によって知りうる。例えば、魚眼レンズ等の、撮像される画像の歪みが大きくなるレンズが撮像部102に備えられていれば、画像処理装置100は、直線ではなく円弧状の補助線を、ユーザの操作に応じて表示部110に描画してもよい。
 上述した補助線の描画は、例えば、カメラと連携して撮像の指示を行うスマートフォンやタブレット端末などの携帯端末が行っても良い。例えば、カメラで撮像した画像を表示する携帯端末が、ユーザの操作に応じて画面上に補助線を描画する処理を行っても良い。
 複数の画像処理装置100を使用して同一の被写体を撮像する際に、他の画像処理装置100との間で補助線を連動させてもよい。図21は、4台の画像処理装置100a~100dが同一の被写体を撮像している様子の一例を示す説明図である。
 画像処理装置100aは、ユーザの操作に応じて表示部110に補助線を描画すると、その補助線の情報を他の画像処理装置100b~100dに送信しても良い。画像処理装置100aから補助線の情報を受信した画像処理装置100b~100dは、画像処理装置100aが描画した位置に合わせて補助線をそれぞれの表示部110に描画しても良い。
 このように、補助線の情報を装置間で連動させることで、複数の画像処理装置100を使用して同一の被写体を撮像する際に、被写体の位置合わせが容易になる。例えば、画像中の被写体の垂直方向の位置を合わせたい場合に、このように複数の画像処理装置100a~100dで補助線の位置を連動させると、その位置合わせが容易となり得る。
 上述した画像処理装置100による補助線の描画処理は、例えば、医療用途にも用いられうる。例えば内視鏡により患者の体内を撮像しながら手術を行う内視鏡手術システムにおいて、上述した画像処理装置100の処理を適用することで、内視鏡が撮像した画像を表示する画面に対し、術者の操作に応じて画面上に補助線の描画を行うことが可能になる。
 画像処理装置100は、ユーザの所定の操作に基づいて、表示部110に描画した補助線を1本ずつ、または全て消去してもよい。また画像処理装置100は、ユーザの所定の操作に応じて、表示部110に描画した補助線を複製してもよい。ユーザがフリーハンドで描いた補助線を複数使用したい場合に、この補助線の複製機能は有益である。
 <2.まとめ>
 以上説明したように本開示の実施の形態によれば、ユーザの操作に応じて画面上に撮像の補助となる補助線を任意に描画する画像処理装置100が提供される。本開示の実施の形態に係る画像処理装置100は、例えば、表示部110に対するユーザの指などの接触または近接による操作を検出し、検出した操作の内容に応じた表示部110への補助線の描画を行う。
 本開示の実施の形態に係る画像処理装置100は、このようにユーザの操作に応じて画面上に撮像の補助となる補助線を任意に描画することで、撮像時にユーザが所望する補助線を表示することを可能とする。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
 また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、ユーザが補助線の描画操作を行う入力装置は、メガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであってもよく、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて補助線の描画のために各種の入力が行われてもよい。また、ユーザが補助線の描画操作を行う入力装置は、ユーザの動きを検出可能なカメラであってもよい。当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて補助線の描画のための各種の入力が行われ得る。また、ユーザが補助線の描画操作を行う入力装置は、ユーザの声を収音可能なマイクロフォンであってもよい。当該マイクロフォンを介して音声によって補助線の描画のための各種の入力が行われ得る。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置。
(2)
 前記制御部は、前記画面に表示されるスルー画像に重畳して前記補助線を表示させる、前記(1)に記載の表示制御装置。
(3)
 前記ユーザによる操作は、前記画面への操作体の接触または近接である、前記(1)または(2)に記載の表示制御装置。
(4)
 前記制御部は、被写体の認識結果に基づいて補助線を前記画面に表示させる、前記(1)~(3)のいずれかに記載の表示制御装置。
(5)
 前記制御部は、撮像時におけるモードに応じて前記補助線の画面への表示を制御する、前記(1)~(4)のいずれかに記載の表示制御装置。
(6)
 前記制御部は、前記モードに応じて前記補助線の形状を変化させる、前記(5)に記載の表示制御装置。
(7)
 前記制御部は、前記モードに応じて前記補助線の線種を変化させる、前記(5)または(6)に記載の表示制御装置。
(8)
 前記制御部は、前記操作に対応して、他の装置に表示されている補助線の表示態様を制御する、前記(1)~(7)のいずれかに記載の表示制御装置。
(9)
 前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に、既に表示している補助線と関係した別の補助線を表示させる、前記(1)~(8)のいずれかに記載の表示制御装置。
(10)
 前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に前記画面において線対称となるよう別の補助線を表示させる、前記(9)に記載の表示制御装置。
(11)
 前記制御部は、撮像時に使用されるレンズの特性に応じて前記補助線の画面への表示を制御する、前記(1)~(10)のいずれかに記載の表示制御装置。
(12)
 前記制御部は、撮像時に使用されるレンズが中心射影方式のレンズか中心射影方式のレンズで無いかに応じて前記補助線の画面への表示を制御する、前記(11)に記載の表示制御装置。
(13)
 前記制御部は、撮像時の位置情報に基づいて前記補助線の画面への表示を制御する、前記(1)~(12)のいずれかに記載の表示制御装置。
(14)
 前記制御部は、他の装置で作成された補助線の情報を位置情報に基づいて取得して、取得した前記情報を用いて前記補助線の画面への表示を制御する、前記(13)に記載の表示制御装置。
(15)
 前記制御部は、前記画面に対する所定のジェスチャ操作の検出に応じて、前記補助線の前記画面への表示を制御する、前記(1)~(14)のいずれかに記載の表示制御装置。
(16)
 撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することを含む、表示制御方法。
(17)
 撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することをコンピュータに実行させる、コンピュータプログラム。
100  :画像処理装置
102  :撮像部
104  :センサ部
106  :入力部
108  :記憶部
110  :表示部
112  :通信部
116  :バス
118  :制御部

Claims (17)

  1.  撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御する制御部を備える、表示制御装置。
  2.  前記制御部は、前記画面に表示されるスルー画像に重畳して前記補助線を表示させる、請求項1に記載の表示制御装置。
  3.  前記ユーザによる操作は、前記画面への操作体の接触または近接である、請求項1に記載の表示制御装置。
  4.  前記制御部は、被写体の認識結果に基づく所定の前記補助線を前記画面に表示させる、請求項1に記載の表示制御装置。
  5.  前記制御部は、撮像時におけるモードに応じて前記補助線の画面への表示を制御する、請求項1に記載の表示制御装置。
  6.  前記制御部は、前記モードに応じて前記補助線の形状を変化させる、請求項5に記載の表示制御装置。
  7.  前記制御部は、前記モードに応じて前記補助線の線種を変化させる、請求項5に記載の表示制御装置。
  8.  前記制御部は、前記操作に対応して、他の装置に表示されている補助線の表示態様を制御する、請求項1に記載の表示制御装置。
  9.  前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に、既に表示している補助線と関係した別の補助線を表示させる、請求項1に記載の表示制御装置。
  10.  前記制御部は、検出した前記操作に応じて前記補助線を前記画面に表示させる際に前記画面において線対称となるよう別の補助線を表示させる、請求項9に記載の表示制御装置。
  11.  前記制御部は、撮像時に使用されるレンズの特性に応じて前記補助線の画面への表示を制御する、請求項1に記載の表示制御装置。
  12.  前記制御部は、撮像時に使用されるレンズが中心射影方式のレンズか中心射影方式のレンズで無いかに応じて前記補助線の画面への表示を制御する、請求項11に記載の表示制御装置。
  13.  前記制御部は、位置情報に基づいて前記補助線の画面への表示を制御する、請求項1に記載の表示制御装置。
  14.  前記制御部は、他の装置で作成された補助線の情報を位置情報に基づいて取得して、取得した前記情報を用いて前記補助線の画面への表示を制御する、請求項13に記載の表示制御装置。
  15.  前記制御部は、前記画面に対する所定のジェスチャ操作の検出に応じて、前記補助線の前記画面への表示を制御する、請求項1に記載の表示制御装置。
  16.  撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することを含む、表示制御方法。
  17.  撮像時における構図決定の補助となる補助線の画面への表示態様を、画面に対するユーザの操作に応じて制御することをコンピュータに実行させる、コンピュータプログラム。
PCT/JP2016/085053 2016-01-19 2016-11-25 表示制御装置、表示制御方法及びコンピュータプログラム WO2017126222A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680078696.7A CN108476278A (zh) 2016-01-19 2016-11-25 显示控制装置、显示控制方法和计算机程序
DE112016006250.8T DE112016006250T5 (de) 2016-01-19 2016-11-25 Anzeigesteuerungsvorrichtung, anzeigesteuerungsverfahren undcomputerprogramm
US15/779,185 US11039072B2 (en) 2016-01-19 2016-11-25 Display control apparatus, display control method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-007770 2016-01-19
JP2016007770A JP2017130735A (ja) 2016-01-19 2016-01-19 表示制御装置、表示制御方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2017126222A1 true WO2017126222A1 (ja) 2017-07-27

Family

ID=59362635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085053 WO2017126222A1 (ja) 2016-01-19 2016-11-25 表示制御装置、表示制御方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11039072B2 (ja)
JP (1) JP2017130735A (ja)
CN (1) CN108476278A (ja)
DE (1) DE112016006250T5 (ja)
WO (1) WO2017126222A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWD192680S (zh) * 2017-12-07 2018-09-01 旺矽科技股份有限公司 顯示螢幕之圖形化使用者介面
CN109816764B (zh) 2019-02-02 2021-06-25 深圳市商汤科技有限公司 图像生成方法及装置、电子设备和存储介质
JP7314008B2 (ja) * 2019-09-30 2023-07-25 キヤノン株式会社 表示制御装置、その制御方法及びプログラム
JP7362399B2 (ja) 2019-09-30 2023-10-17 キヤノン株式会社 表示制御装置およびその制御方法およびプログラム
CN110989879B (zh) * 2019-11-08 2021-04-09 东软集团股份有限公司 辅助线提示方法、装置、可读存储介质及电子设备
JP6793382B1 (ja) * 2020-07-03 2020-12-02 株式会社エクサウィザーズ 撮影装置、情報処理装置、方法およびプログラム
USD953361S1 (en) * 2020-12-25 2022-05-31 Canon Kabushiki Kaisha Display screen with animated graphical user interface
CN113395456B (zh) * 2021-08-17 2021-11-30 南昌龙旗信息技术有限公司 辅助拍摄方法、装置、电子设备及计算机可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211493A (ja) * 2010-03-30 2011-10-20 Sony Corp 撮像装置、表示方法及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100565269B1 (ko) * 2003-05-15 2006-03-30 엘지전자 주식회사 카메라 기능을 구비한 이동통신 단말기의 촬영방법
JP2005198035A (ja) 2004-01-07 2005-07-21 Fuji Photo Film Co Ltd デジタルカメラ
CN101000451A (zh) * 2006-01-10 2007-07-18 英保达股份有限公司 自动构图支持装置及方法
US8177441B2 (en) * 2007-08-29 2012-05-15 Nintendo Co., Ltd. Imaging apparatus
US8130275B2 (en) * 2008-06-13 2012-03-06 Nintendo Co., Ltd. Information-processing apparatus, and storage medium storing a photographing application launch program executed by information-processing apparatus
US8675089B2 (en) * 2009-12-25 2014-03-18 Samsung Electronics Co., Ltd. Apparatus and method for assisting composition of photographic image
JP5525923B2 (ja) * 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5561019B2 (ja) * 2010-08-23 2014-07-30 ソニー株式会社 撮像装置、プログラムおよび撮像方法
JP5131367B2 (ja) * 2011-05-31 2013-01-30 カシオ計算機株式会社 撮影装置及びプログラム
KR101902418B1 (ko) * 2012-02-14 2018-10-04 삼성전자주식회사 휴대단말기의 이미지 편집장치 및 방법
CN103365952B (zh) * 2012-04-06 2017-04-12 东芝医疗系统株式会社 医疗信息检索装置
KR102000536B1 (ko) * 2012-12-28 2019-07-16 삼성전자주식회사 합성 이미지를 촬영하는 촬영 장치 및 그 방법
KR20140108995A (ko) * 2013-03-04 2014-09-15 삼성전자주식회사 페이지의 일부 영역을 이용한 데이터 처리 방법 및 장치
JP6076168B2 (ja) * 2013-03-27 2017-02-08 オリンパス株式会社 撮像装置、構図アシスト装置、構図アシスト方法、及び構図アシストプログラム
KR20140132917A (ko) * 2013-05-09 2014-11-19 삼성전자주식회사 휴대 전자기기와 연결 가능한 부가 장치를 통한 표시 방법 및 장치
JP6221656B2 (ja) * 2013-11-08 2017-11-01 株式会社リコー 情報処理装置、情報処理方法およびプログラム
KR20160024583A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 전자 장치 및 드로잉 기능 제공 방법
KR20160101580A (ko) * 2015-02-17 2016-08-25 삼성전자주식회사 터치 스크린 패널의 활성화 영역 제어 방법 및 그 전자 장치
US9990740B2 (en) * 2015-03-04 2018-06-05 Adobe Systems Incorporated Camera-based brush creation
CN104902176B (zh) 2015-05-22 2018-07-06 广东欧珀移动通信有限公司 一种调整拍摄角度的提示方法及终端

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211493A (ja) * 2010-03-30 2011-10-20 Sony Corp 撮像装置、表示方法及びプログラム

Also Published As

Publication number Publication date
JP2017130735A (ja) 2017-07-27
US11039072B2 (en) 2021-06-15
US20190387176A1 (en) 2019-12-19
DE112016006250T5 (de) 2018-10-18
CN108476278A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
WO2017126222A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
US11348326B2 (en) Display control device, display control method, and recording medium
US10530998B2 (en) Image processing device, imaging device, image processing method, and program
US10136069B2 (en) Apparatus and method for positioning image area using image sensor location
EP3076659A1 (en) Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
WO2019033411A1 (zh) 一种全景拍摄方法及装置
US20160180599A1 (en) Client terminal, server, and medium for providing a view from an indicated position
JP2013162487A (ja) 画像表示装置及び撮像装置
BR112016013424B1 (pt) método e terminal para aquisição de imagem panorâmica
US20210084228A1 (en) Tracking shot method and device, and storage medium
US10291835B2 (en) Information processing apparatus, imaging apparatus, information processing method, and imaging system
JP2008252930A (ja) 電子カメラおよび画像表示装置および画像表示方法
WO2022061541A1 (zh) 控制方法、手持云台、系统及计算机可读存储介质
WO2017126216A1 (ja) 撮像制御装置、撮像制御方法及びコンピュータプログラム
JP2020042064A (ja) 表示制御装置、撮像装置、制御方法、プログラム、及び、記憶媒体
JP2014116790A (ja) 撮像装置
WO2020241038A1 (ja) 構図制御装置、構図制御方法、プログラム
CN114764295A (zh) 立体场景切换方法、装置、终端及存储介质
JP2015139124A (ja) 画像生成装置、画像生成システム、画像生成方法、及びプログラム
US20220385829A1 (en) Information processing apparatus, control method, and storage medium
CN109952758A (zh) 一种图像处理的方法及终端
JP2016046566A (ja) 記録装置、その制御方法およびプログラム
JPWO2020003944A1 (ja) 撮像装置、撮像方法、及びプログラム
JP2020149336A (ja) 情報処理装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16886461

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112016006250

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16886461

Country of ref document: EP

Kind code of ref document: A1