WO2012147521A1 - 携帯端末および無効領域設定方法 - Google Patents

携帯端末および無効領域設定方法 Download PDF

Info

Publication number
WO2012147521A1
WO2012147521A1 PCT/JP2012/059969 JP2012059969W WO2012147521A1 WO 2012147521 A1 WO2012147521 A1 WO 2012147521A1 JP 2012059969 W JP2012059969 W JP 2012059969W WO 2012147521 A1 WO2012147521 A1 WO 2012147521A1
Authority
WO
WIPO (PCT)
Prior art keywords
invalid area
touch
unit
key
setting
Prior art date
Application number
PCT/JP2012/059969
Other languages
English (en)
French (fr)
Inventor
研 田中
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/114,169 priority Critical patent/US9106828B2/en
Publication of WO2012147521A1 publication Critical patent/WO2012147521A1/ja
Priority to US14/802,912 priority patent/US9531949B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Definitions

  • the present invention relates to a portable terminal and an invalid area setting method, and more particularly to a portable terminal and an invalid area setting method capable of capturing an image.
  • Patent Document 1 An example of a portable terminal that can capture an image is disclosed in Patent Document 1.
  • a display area of a captured image is set so as to avoid the detected contact position. In this display area, a photographed image, a through image, and the like are displayed.
  • JP 2007-28536 A [H04N 5/225, H04N 101/00]
  • Patent Document 1 when the display area of the captured image is set so as to avoid the contact position, a part of the through image or the like is cut out or reduced, so that the user can capture the captured image or the through image. It becomes difficult to see the picture.
  • a main object of the present invention is to provide a novel portable terminal and invalid area setting method.
  • Another object of the present invention is to provide a portable terminal and an invalid area setting method capable of improving the visibility of a through image even if an invalid area is set.
  • This invention employs the following configuration in order to solve the above problems.
  • the reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
  • 1st aspect of this invention detects the touch operation within the touch range of the camera module which outputs the image of a to-be-photographed object, the display part which displays the image which a camera module outputs, the touch panel provided on a display part, and a touch panel
  • a mobile terminal having a detection unit and an execution unit that executes a predetermined process related to shooting when a touch operation is detected by the detection unit, and a setting unit that sets an invalid area that disables the touch operation in the touch range It is a portable terminal provided.
  • a camera module (40-44) of a mobile terminal (10: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) includes an image sensor (42) and the like. An image of the subject obtained by the image sensor is output. A display part (30) displays the through image based on the image which a camera module outputs, for example. In addition, a colorless and transparent touch panel is provided on the display unit so that display contents can be visually recognized. The detection unit detects a touch operation performed within the touch range of the touch panel. Then, when the touch operation is performed, the execution unit (24, S17) executes predetermined processing related to shooting such as focus processing and shooting processing. Then, the setting unit (24, S49) sets the invalid area (74, 76) so as to surround the periphery in the touch range, for example.
  • the invalid area when the invalid area is not displayed, it is possible to display the image without changing the size of the image, thereby preventing the visibility of the image displayed on the display unit from being deteriorated. Can do.
  • a second aspect of the present invention includes a camera module (40-44) for outputting an image of a subject, a display unit (30) for displaying an image output by the camera module, a touch panel (38) provided on the display unit, Invalid area setting of portable terminal (10) having a detection unit (36) for detecting a touch operation within the touch range of the touch panel and an execution unit (S17) for executing a predetermined process related to shooting when the detection unit detects a touch operation.
  • This is a method for setting an invalid area (74, 76) for invalidating a touch operation in the touch range (S49).
  • the through image when the invalid area is not displayed, the through image can be displayed without changing the size thereof, so that the visibility of the image displayed on the display unit can be prevented from being deteriorated.
  • FIG. 1 is an illustrative view showing an electrical configuration of a mobile phone according to an embodiment of the present invention.
  • FIG. 2 is an illustrative view showing one example of an appearance of the mobile phone shown in FIG.
  • FIG. 3 is an illustrative view showing one example of a through image of the first embodiment displayed on the display shown in FIG. 1.
  • FIG. 4 is an illustrative view showing another example of the through image of the first embodiment displayed on the display shown in FIG.
  • FIG. 5 is an illustrative view showing another example of the through image of the first embodiment displayed on the display shown in FIG.
  • FIG. 6 is an illustrative view showing one example of a memory map of the RAM shown in FIG. FIG.
  • FIG. 7 is a flowchart showing an example of camera control processing of the processor shown in FIG.
  • FIG. 8 is a flowchart showing an example of auxiliary function processing of the first embodiment of the processor shown in FIG.
  • FIG. 9 is a flowchart showing an example of the invalid area setting process of the first embodiment of the processor shown in FIG.
  • FIG. 10 is an illustrative view showing one example of a through image of the second embodiment displayed on the display shown in FIG.
  • FIG. 11 is a flowchart showing an example of the invalid area setting process of the second embodiment of the processor shown in FIG.
  • FIG. 12 is an illustrative view showing one example of a through image of the third embodiment displayed on the display shown in FIG. 1.
  • FIG. 13 is an illustrative view showing another example of the through image of the third embodiment displayed on the display shown in FIG.
  • FIG. 14 is an illustrative view showing another example of the through image of the third embodiment displayed on the display shown in FIG.
  • FIG. 15 is a flowchart showing an example of auxiliary function processing of the third embodiment of the processor shown in FIG.
  • FIG. 16 is an illustrative view showing one example of a through image of the fourth embodiment displayed on the display shown in FIG. 1.
  • FIG. 17 is an illustrative view showing one example of a through image of the fifth embodiment displayed on the display shown in FIG. 1.
  • a mobile phone 10 is a kind of mobile terminal, and includes a processor 24 called a computer or a CPU.
  • the processor 24 includes a wireless communication circuit 14, an A / D converter 16, a D / A converter 20, a key input device 26, a display driver 28, a flash memory 32, a RAM 34, a touch panel control circuit 36, and a camera control circuit 40. Etc. are connected.
  • the antenna 12 is connected to the wireless communication circuit 14.
  • a microphone 18 is connected to the A / D converter 16, and a speaker 22 is connected to the D / A converter 20.
  • a display 30 is connected to the display driver 28.
  • a touch panel 38 is connected to the touch panel control circuit 36.
  • An image sensor 42 and a focus lens 44 are connected to the camera control circuit 40.
  • the processor 24 controls the entire mobile phone 10.
  • the RAM 34 is used as a work area (including a drawing area) or a buffer area of the processor 24.
  • Content data such as characters, images, sounds, sounds and videos of the mobile phone 10 is recorded in the flash memory 32.
  • the A / D converter 16 converts an analog voice signal for voice or sound input through the microphone 18 connected to the A / D converter 16 into a digital voice signal.
  • the D / A converter 20 converts (decodes) the digital audio signal into an analog audio signal, and supplies the analog audio signal to the speaker 22 via an amplifier (not shown). Therefore, sound or sound corresponding to the analog sound signal is output from the speaker 22.
  • the processor 24 can adjust the volume of the sound output from the speaker 22 by controlling the amplification factor of the amplifier.
  • the key input device 26 is called an operation unit, and includes a call key 26a, a menu key 26b, an end call key 26c, and the like.
  • information (key data) on keys operated by the user is input to the processor 24. Further, when each key included in the key input device 26 is operated, a click sound is generated. Therefore, the user can obtain an operational feeling for the key operation by listening to the click sound.
  • the display driver 28 controls display on the display 30 connected to the display driver 28 under the instruction of the processor 24.
  • the display driver 28 also includes a video memory (not shown) that temporarily stores image data to be displayed.
  • the display 30 is sometimes called a display unit.
  • the touch panel 38 is a capacitance method that detects a change in capacitance between electrodes caused by an object such as a finger approaching the surface. For example, it detects that one or more fingers touch the touch panel 38. To do.
  • the touch panel 38 is provided on the display 30 and is a pointing device for instructing an arbitrary position within the screen.
  • the touch panel control circuit 36 that functions as a detection unit detects a touch operation that is pressed, stroked, or touched within the touch range of the touch panel 38, and outputs coordinate data indicating the position of the touch operation to the processor 24. To do. That is, the user can input an operation direction, a figure, or the like to the mobile phone 10 by pressing, stroking, or touching the surface of the touch panel 38 with a finger.
  • touch an operation in which the user touches the upper surface of the touch panel 36 with a finger is referred to as “touch”.
  • the operation of releasing the finger from the touch panel 36 is referred to as “release”.
  • the operation of stroking the surface of the touch panel 36 is referred to as “slide”, and the operation of sliding after touching and releasing is referred to as “touch slide”.
  • touch and release an operation in which the user touches the touch panel 38 and subsequently releases it is referred to as “touch and release”.
  • the “touch operation” includes operations performed on the touch panel 36 such as touch, release, slide, touch slide, and touch and release.
  • touch point touch start position
  • release point touch end position
  • the touch operation is not limited to a finger, and may be performed by a touch pen with a conductor attached to the tip.
  • a detection method of the touch panel 38 a surface-type capacitance method may be employed, or a resistance film method, an ultrasonic method, an infrared method, an electromagnetic induction method, or the like may be used.
  • the camera control circuit 40 is a circuit for taking a still image or a moving image with the mobile phone 10. For example, when an operation for executing a camera function is performed on the key input device 26, the processor 24 executes the camera function and activates the camera control circuit 40.
  • the camera control circuit 40, the image sensor 42, and the focus lens 44 collectively function as a camera module.
  • a light receiving element corresponding to SXGA (1280 ⁇ 1024 pixels) is displayed. Therefore, for example, the optical image of the subject is irradiated on the image sensor 42, and in the imaging area, a charge corresponding to the optical image of the subject, that is, a raw SXGA image signal is generated by photoelectric conversion.
  • the user can change the size (number of pixels) of the image data to XGA (1024 ⁇ 768 pixels), VGA (640 ⁇ 480 pixels), and the like in addition to SXGA.
  • the processor 24 activates an image sensor driver built in the camera control circuit 40 in order to display a real-time moving image of the subject, that is, a through image (preview image) on the display 30, and performs an exposure operation and
  • the image sensor driver is instructed to perform a charge readout operation corresponding to the designated readout region.
  • the image sensor driver performs exposure of the imaging surface of the image sensor 42 and reading of the charges generated by the exposure. As a result, a raw image signal is output from the image sensor 42.
  • the output raw image signal is input to the camera control circuit 40.
  • the camera control circuit 40 performs processes such as color separation, white balance adjustment, and YUV conversion on the input raw image signal, and outputs the YUV format. Generate image data. Then, the YUV format image data is input to the processor 24.
  • the YUV format image data input to the processor 24 is stored (temporarily stored) in the RAM 34 by the processor 24. Further, the stored image data in the YUV format is converted into RGB data by the processor 24 and then given from the RAM 34 to the display driver 28. Then, RGB format image data is output to the display 30. Accordingly, a through image of low pixels (for example, 320 ⁇ 240 pixels) representing the subject is displayed on the display 30.
  • the camera control circuit 40 calculates a focus evaluation value from the raw image signal, and outputs the focus evaluation value to the processor 24.
  • the processor 24 executes AF (Autofocus) processing based on the focus evaluation value output from the camera control circuit 40.
  • AF Autofocus
  • the camera control circuit 40 adjusts the lens position of the focus lens 44 under the instruction of the processor 24. As a result, a through image in which the subject is in focus is displayed on the display 30.
  • the processor 24 executes a still image main shooting process. That is, the processor 24 performs signal processing on the raw SXGA image signal output from the image sensor 42, temporarily stores it in the RAM 34, and executes recording processing on the flash memory 32. When the recording process is executed, image data is read from the RAM 34 through the processor 24. Then, the processor 24 associates the meta information with the read image data and records it in the flash memory 32 as one file. Further, the processor 24 outputs a sound for notifying that the main photographing process is being executed from a speaker (not shown).
  • the meta information includes time information, image size, and model name (model number) of the mobile phone 10. Further, when a memory card can be connected to the mobile phone 10, the image data may be stored in the memory card. Meta information associated with image data is stored in the Exif format.
  • the wireless communication circuit 14 is a circuit for performing wireless communication by the CDMA method. For example, when the user instructs a telephone call (calling) using the key input device 26, the wireless communication circuit 14 executes a telephone call process under the instruction of the processor 24, and sends a telephone call signal via the antenna 12. Is output. The telephone call signal is transmitted to the other party's telephone through a base station and a communication network (not shown). Then, when an incoming call process is performed at the other party's telephone, a communicable state is established, and the processor 24 executes a call process.
  • a modulated voice signal transmitted from the other party's telephone is received by the antenna 12.
  • the received modulated audio signal is demodulated and decoded by the wireless communication circuit 14.
  • the received voice signal obtained by these processes is converted into an analog voice signal by the D / A converter 20 and then output from the speaker 22.
  • the transmission voice signal captured through the microphone 18 is converted into a digital voice signal by the A / D converter 16 and then given to the processor 24.
  • the transmission signal converted into the digital audio signal is subjected to encoding processing and modulation processing by the wireless communication circuit 14 under the instruction of the processor 24, and is output via the antenna 12. Therefore, the modulated voice signal is transmitted to the other party's telephone through the base station and the communication network.
  • the wireless communication circuit 14 notifies the processor 24 of an incoming call (incoming call).
  • the processor 24 controls the display driver 28 to display caller information (such as a telephone number) described in the incoming call notification on the display 30.
  • the processor 24 outputs a ring tone (sometimes called a ringing melody or a ringing voice) from a speaker (not shown).
  • the wireless communication circuit 14 executes the incoming call process under the instruction of the processor 24. Further, the communicable state is established, and the processor 24 executes the normal call process described above.
  • the processor 24 controls the wireless communication circuit 14 to transmit a call end signal to the call partner. Then, after transmitting the call end signal, the processor 24 ends the call process. The processor 24 also ends the call process when a call end signal is received from the other party first. Furthermore, the processor 24 also ends the call process when a call end signal is received from the mobile communication network regardless of the call partner.
  • FIG. 2A is an external view showing the external appearance of the front surface of the mobile phone 10
  • FIG. 2B is an external view showing the external appearance of the back surface of the mobile phone 10.
  • the mobile phone 10 has a straight shape and has a flat rectangular casing C.
  • the microphone 18 (not shown) is built in the housing C, and the opening OP2 leading to the built-in microphone 18 is provided on one side surface of the housing C in the vertical direction.
  • the speaker 22 (not shown) is built in the housing C, and the opening OP1 leading to the built-in speaker 22 is provided on the other surface in the longitudinal direction of the housing C.
  • the display 30 is attached so that the monitor screen can be seen from the front side of the housing C.
  • a touch panel 38 is provided on the display 30.
  • a camera module (not shown) is also built in the casing C, and an opening OP3 leading to the focus lens 44 and the like of the camera module is provided on the other back surface in the longitudinal direction of the casing C.
  • the key input device 26 includes a call key 26a, a function key 26b, and an end call key 26c. These keys are provided on the surface of the casing C.
  • the user inputs a telephone number by performing a touch operation on the dial keys displayed on the display 30, and performs a voice call operation using the call key 26a.
  • the user performs a call end operation using the end call key 26c.
  • the user operates the function key 26b to display a menu screen on the display 30.
  • the user performs menu selection and confirmation by touching the soft keys and menus displayed on the display 30.
  • the user can take an image of the subject by performing a photographing operation with the back surface of the housing C facing the subject.
  • the antenna 12, the wireless communication circuit 14, the A / D 16, the D / A 20, the processor 24, the display driver 28, the flash memory 32, the RAM 34, and the touch panel control circuit 36 are built in the housing C, FIG. ), (B), not shown.
  • FIG. 3 is an illustrative view showing an example of a display 30 for displaying a through image.
  • the display 30 includes a status display area 60 including icons indicating date and time, a remaining battery level, a reception status, and the like, and a function display area 62 where a through image is displayed.
  • a shooting key 64 for executing a shooting process and an auxiliary key 66 for executing an auxiliary function of a camera function are displayed as processing keys relating to shooting.
  • the object scene is arranged in the order of the flower bed and the person from the mobile phone 10 side, and in the function display area 62, a through image focused on the flower bed placed in front of the person is displayed. It is displayed.
  • the user can execute the AF process by touching an arbitrary position in the function display area 62.
  • the shooting key 64 is operated after the AF process is executed, the image data corresponding to the through image shown in FIG. 3 is stored in the flash memory 32.
  • the lens position of the focus lens 44 is set so that the focus evaluation value in a predetermined range centered on the touch point is maximized. Adjusted.
  • FIG. 4B a through image focused on the person behind the flower bed is displayed. That is, the user can display a through image that is in focus at that position by simply touching the arbitrary position.
  • an auxiliary key group including grid keys 68 and setting keys 70 is displayed in the function display area 62 as shown in FIG. Is displayed instead of.
  • the grid key 68 is a key for displaying in the function display area 62 a grid composed of a plurality of vertical lines and horizontal lines. For example, the user can determine the composition of an image to be captured using the displayed grid.
  • the setting key 70 is a key for setting an invalid area in which the touch operation is invalidated in the touch range of the touch panel 38.
  • each key displayed in the function display area 62 is erased. In this state, when the position T1 and the position T2 are touched, an invalid area is set in the touch range based on the first coordinates and the second coordinates corresponding to the positions.
  • the invalid area 74 is set so that the two vertices of the valid area in the touch range become the first coordinate and the second coordinate.
  • a photographing key 64 and a release key 72 are displayed in the effective area.
  • the release key 72 is also included in the processing keys described above.
  • the position touched by the user is not limited to that shown in FIG. That is, the user can arbitrarily determine the range of the invalid area 74.
  • the invalid area 74 is illustrated by diagonal lines, but the invalid area 74 is not actually recognized by the user.
  • the operability of the mobile phone 10 can be maintained even if the invalid area 74 is set.
  • the touch panel 38 can be erroneously operated with his / her hand or finger. Can be reduced.
  • the invalid area 74 since the invalid area 74 is not displayed, it can be displayed without changing the size of the through image, so that the visibility of the through image displayed on the display 30 can be prevented from being deteriorated. Then, the user can grasp the approximate position and range of the invalid area 64 by looking at the photographing key 64 displayed after the invalid area 74 is set.
  • the cancel key 72 When the cancel key 72 is operated, the invalid area 74 is cancelled, and the display on the display 30 returns to the state shown in FIG. That is, the user can arbitrarily set or cancel the invalid area by using the setting key 70 and the cancel key 72.
  • an image can be taken using the touch panel 38 even when an invalid area is set.
  • processing is performed so that the photographing key 64 and the release key 72 are displayed at predetermined positions from the lower right of the effective area.
  • FIG. 6 is a diagram showing a memory map of the RAM 34.
  • the memory map of the RAM 34 includes a program storage area 302 and a data storage area 304. A part of the program and data is read from the flash memory 32 all at once or partly and sequentially as necessary, stored in the RAM 34, and then processed by the processor 24.
  • the program storage area 302 stores a program for operating the mobile phone 10.
  • programs for operating the mobile phone 10 include a camera control program 310, an auxiliary function program 312 and an invalid area setting program 314.
  • the camera control program 310 is a program executed to realize the camera function, and causes AF processing, shooting processing, and the like to be executed as a subroutine.
  • the auxiliary function program 312 is a subroutine of the camera control program 310, and is a program for displaying a grid and controlling setting / canceling of invalid areas.
  • the invalid area setting program 314 is a subroutine of the auxiliary function program 312 and is a program for setting an invalid area based on a touch operation for setting an invalid area.
  • the program for operating the mobile phone 10 includes a program for notifying a voice incoming state, and a program corresponding to AF control and photographing control.
  • a touch buffer 330 and an invalid area buffer 332 are provided, and touch coordinate map data 334 and GUI data 336 are stored.
  • the data storage area 304 is also provided with a touch flag 338, a setting counter 340, and a touch counter 342.
  • the touch buffer 330 temporarily stores touch coordinate data such as a touch point, a release point, and a current touch position obtained by a touch operation.
  • the invalid area buffer 332 temporarily stores the set coordinate range of the invalid area and the data of the first coordinate and the second coordinate.
  • Touch coordinate map data 334 is data for converting touch coordinates stored in the touch buffer 330 into display coordinates on the display 30.
  • the GUI data 336 includes GUI image data displayed on the display 30. Therefore, the processor 24 displays the photographing key 64 and the auxiliary key 66 shown in FIG. 3 and the like based on the GUI data 336.
  • the touch flag 338 is a flag for determining whether or not a touch operation is detected.
  • the touch flag 338 is composed of a 1-bit register. When the touch flag 338 is turned on (established), a data value “1” is set in the register. On the other hand, when the touch flag 338 is turned off (not established), a data value “0” is set in the register. In this embodiment, even if the touch panel control circuit 36 detects a touch operation, if the touch position of the touch operation is included in the invalid area 74, the touch flag 338 is not switched on / off. By doing so, the touch operation is invalidated.
  • the setting counter 340 is a counter for measuring the time after the setting key 70 is operated. That is, based on the value of the setting counter 340, the processor 24 determines whether to return the display on the display 30 from the state of FIG. 5B to the state of FIG.
  • the touch counter 342 is a counter for measuring the time during which a touch operation is performed.
  • the touch counter 342 will be described in detail in a third embodiment to be described later, and detailed description thereof is omitted here.
  • the data storage area 304 stores image data displayed in a standby state, character string data, and the like, and is provided with counters and flags necessary for the operation of the mobile phone 10. It is done.
  • the processor 24 operates under the control of the Linux (registered trademark) OS such as Android (registered trademark) and REX, and other OSs, the camera control process shown in FIG. 7, the auxiliary function process shown in FIG. A plurality of tasks including the invalid area setting process shown are processed in parallel.
  • Linux registered trademark
  • OS such as Android (registered trademark) and REX
  • FIG. 7 is a flowchart of camera control processing.
  • the processor 24 displays a GUI on the display 30. That is, as shown in FIG. 3, the processor 24 displays the photographing key 66 and the auxiliary key 66 on the display 30 based on the GUI data 336.
  • step S3 a through image is displayed. That is, the through image is displayed on the display 30 based on the image data output from the camera control circuit 40.
  • step S5 it is determined whether or not a camera function end operation has been performed. For example, it is determined whether the end call key 26c has been operated. If “YES” in the step S5, for example, when the end key 26c is operated, the camera control process is ended.
  • step S5 If “NO” in the step S5, that is, if the camera function end operation is not performed, it is determined whether or not the touch is made in a step S7. That is, the touch operation is detected by the touch panel control circuit 36, and it is determined whether the touch flag 338 is turned on. If “NO” in the step S7, that is, if the touch panel 38 is not touched, the process returns to the step S3. If “YES” in the step S7, that is, if the touch panel 38 is touched, it is determined whether or not the position touched in the step S9 is an invalid area. That is, it is determined whether the touch point recorded in the touch buffer 330 and the coordinates indicating the current touch position are included in the coordinate range stored in the invalid area buffer 332. If “YES” in the step S9, for example, if the touch point is included in the coordinate range of the invalid area, the process returns to the step S3.
  • step S9 determines whether or not the AF operation is performed in a step S11. For example, it is determined whether the touched position is within an effective area where no key is displayed. If “YES” in the step S11, for example, as shown in FIG. 4A, if the user touches an arbitrary position, the AF process is executed in a step S13. That is, when the AF process is executed, the lens position of the focus lens 44 is adjusted so that the focus evaluation value becomes maximum within a predetermined range centered on the touch point. And if the process of step S13 is complete
  • step S11 determines whether or not the photographing operation is performed in a step S15. That is, it is determined whether the touch point is included in the display range of the photographing key 64. If “YES” in the step S15, that is, if a touch operation is performed on the photographing key 64, a photographing process is executed in a step S17. That is, as described above, the image data output from the camera control circuit 40 is stored in the flash memory 32. And if the process of step S17 is complete
  • step S15 determines whether or not an auxiliary key group is displayed in a step S19. That is, as shown in FIG. 5A, it is determined whether the grid key 68 and the setting key 70 are displayed instead of the auxiliary key 66. If “NO” in the step S19, that is, if the auxiliary key 66 is displayed, it is determined that the key is operated, and the auxiliary key group is displayed in a step S21, and the process returns to the step S3. That is, instead of the auxiliary key 66, the grid key 68 and the setting key 70 are displayed in the function display area 62.
  • step S19 for example, if the grid key 68 and the setting key 70 are displayed in the function display area 62, the auxiliary function process is executed in a step S23 because these keys are operated. Return to step S3.
  • FIG. 8 is a flowchart of auxiliary function processing.
  • the processor 24 determines whether or not it is the setting key 70 in step S41. That is, it is determined whether the touch point is included in the display range of the setting key 70. If “YES” in the step S41, that is, if the touch operation is performed on the setting key 70, the key display is erased in a step S43. That is, as shown in FIG. 5B, the display of the photographing key 64, the grid key 68, and the setting key 70 is erased. Subsequently, in step S45, an invalid area setting process is executed. The invalid area setting process will be described in detail with reference to the flowchart shown in FIG.
  • step S47 it is determined whether or not the setting operation is successful. That is, it is determined whether the first and second coordinates are stored in the invalid area buffer 332. If “YES” in the step S47, that is, if the first coordinate and the second coordinate are stored in the invalid area buffer 332, an invalid area is set in a step S49. For example, if the first and second coordinates corresponding to the positions T1 and T2 shown in FIG. 5B are stored in the invalid area buffer 332, the invalid area 74 shown in FIG. 5C is set.
  • step S51 a key is displayed in the effective area. That is, as shown in FIG. 5C, the photographing key 64 and the release key 72 are displayed at predetermined positions from the lower right of the effective area.
  • step S51 ends, the processor 24 ends the auxiliary function process and returns to the camera control process.
  • the processor 24 that executes the process of step S49 functions as a setting unit, and the processor 24 that executes the process of step S51 functions as a key display unit.
  • step S47 if “NO” in the step S47, that is, if the setting operation fails, an error display is performed in a step S53, and then the process proceeds to the step S51.
  • the photographing key 64, the grid key 68, and the setting key 70 are displayed so as to be in the state of FIG.
  • step S41 determines whether or not an invalid area is set in a step S57. That is, it is determined whether data indicating the coordinate range of the invalid area is recorded in the invalid area buffer 332. If “NO” in the step S57, that is, if an invalid area is not set, the process proceeds to a step S65. On the other hand, if “YES” in the step S57, for example, as shown in FIG. 5C, if the invalid area 74 is set in the touch range, it is determined whether or not the release key 72 is determined in a step S59. That is, it is determined whether or not the touch point is included in the display range of the release key 72. If “NO” in the step S59, that is, if the touch operation is not performed on the release key 72, the process proceeds to a step S65.
  • step S59 If “YES” in the step S59, for example, if a touch operation is performed on the release key 72 shown in FIG. 5C, the invalid area 74 is canceled in a step S61, and valid in a step S63. Redisplay the key in the area. That is, the invalid area buffer 332 is initialized. Further, after the display of the photographing key 64 and the release key 72 is deleted, the photographing key 64, the grid key 68, and the setting key 70 are displayed as shown in FIG. When the process of step S63 ends, the processor 24 returns to the camera control process after finishing the auxiliary function process. The processor 24 that executes the process of step S61 functions as a canceling unit.
  • step S65 it is determined whether or not the grid key 68 is set in step S65. That is, it is determined whether the touch point is included in the display range of the grid key 68. If “YES” in the step S65, that is, if the touch operation is performed on the grid key 68, the grid is displayed in a step S67, and the auxiliary function process is ended. If “NO” in the step S65, that is, if the grid key 68 is not touched, the processor 24 ends the auxiliary function processing.
  • FIG. 9 is a flowchart of invalid area setting processing.
  • the processor 24 determines whether or not the first coordinate is designated in step S81. For example, it is determined whether the touch panel 38 is touched and the touch point is stored in the touch buffer 330. If “NO” in the step S81, that is, if not touched, the setting counter 340 is incremented in a step S83. That is, the time from when the setting key is touched to when it is touched is measured. Subsequently, in step S85, it is determined whether or not the value of the setting counter is greater than or equal to a first predetermined value.
  • step S85 it is determined whether or not a first predetermined time (for example, 30 seconds) has elapsed since the setting key 70 shown in FIG. For example, when the setting counter 340 is counted about every 100 milliseconds, the value of the first predetermined value is “300”.
  • step S85 it is determined whether the value of the setting counter 340 is equal to or greater than the first predetermined value. If “YES” in the step S85, that is, if the first predetermined time elapses without being touched, the invalid area setting process is ended and the process returns to the auxiliary function process. On the other hand, if “NO” in the step S85, that is, if the first predetermined time has not passed without being touched, the process returns to the step S81.
  • a first predetermined time for example, 30 seconds
  • step S87 the first coordinates are stored in a step S87.
  • the coordinates of the position T1 shown in FIG. 5B are stored in the invalid area buffer 332 as the first coordinates.
  • step S99 the setting counter 340 is initialized. That is, since the first coordinate is stored, the value of the setting counter 340 is initialized.
  • the processor 24 that executes the process of step S87 functions as a first storage unit.
  • step S101 it is determined whether or not the second coordinate is input. That is, it is determined whether or not the touch is made to input the second coordinate. If “NO” in the step S101, that is, if the touch for inputting the second coordinate is not made, the setting counter 340 is incremented in a step S103. In step S105, it is determined whether the setting counter 340 is equal to or greater than a first predetermined value. In addition, since the process of step S103 and step S105 is the same as the process of step S83 and step S85, detailed description is abbreviate
  • step S105 If “YES” in the step S105, that is, if the first predetermined time elapses without touching for inputting the second place after the first coordinate is stored, the invalid area setting process is ended. Return to the auxiliary function processing. On the other hand, if “NO” in the step S105, that is, if the first predetermined time has not elapsed, the process returns to the step S101.
  • step S101 for example, if the position T2 is touched, the second coordinates are stored in a step S107, and the setting counter 340 is initialized in a step S109.
  • step S107 the coordinates of the position T2 are stored in the invalid area buffer 332 as the second coordinates.
  • the processor 24 that executes the process of step S107 functions as a second storage unit.
  • the invalid area is set and its size is determined based on the touched time. Since the mobile phone 10 of the second embodiment is substantially the same as that of the first embodiment, the description of the electrical configuration of the mobile phone 10, the memory map of the RAM 34, and the overlapping flowcharts will be omitted.
  • the invalid area 74 is set narrow as shown in FIG.
  • the invalid area is set wider as shown in FIG. That is, the user can set the invalid area simply by touching, and can arbitrarily determine its size.
  • the invalid area is not set. This is to prevent the set invalid area from becoming too narrow.
  • the processor 24 of the second embodiment performs an invalid area setting process shown in FIG. 11 in addition to a plurality of processes shown in FIGS. 7 and 8 under the control of a Linux-based OS such as Android and REX, and other OSs. Process multiple tasks including in parallel.
  • a Linux-based OS such as Android and REX, and other OSs. Process multiple tasks including in parallel.
  • FIG. 11 is a flowchart of the invalid area setting process according to the second embodiment.
  • the processor 24 determines whether or not a touch has been made in step S131. That is, it is determined whether the touch flag 338 is turned on.
  • the touch counter 342 is incremented. That is, the touch counter 342 is incremented to measure the operation time described above. Note that the touch counter 342 is incremented approximately every 50 milliseconds.
  • step S135 it is determined whether or not it has been released. For example, it is determined whether or not the touch flag 338 is switched off when the user lifts his / her finger from the touch panel 38.
  • the processor 24 that executes the processes of steps S133 and S135 functions as a measurement unit.
  • step S135 If “NO” in the step S135, that is, if the touch flag 338 remains on, the process returns to the step S133. If “YES” in the step S135, for example, if the user lifts the finger from the touch panel 38 and the touch flag 338 is switched off, it is determined whether or not the touch counter is equal to or larger than the second predetermined value in a step S137. to decide. That is, it is determined whether the operation time is equal to or longer than the second predetermined time. For example, when the touch counter 338 is incremented in the above-described cycle (50 milliseconds), the second predetermined value is “20”. In step S137, it is determined whether the value of the touch counter 338 is equal to or greater than the second predetermined value.
  • step S137 that is, if the operation time is shorter than the second predetermined time, the invalid area setting process is terminated without calculating the first coordinate and the second coordinate, and the processor 24 is executed by the upper routine. Return to some auxiliary function processing.
  • step S137 that is, if the operation time is equal to or longer than the second predetermined time, the first coordinate and the second coordinate are calculated based on the value of the touch counter 338 in a step S139.
  • a linear function passing through the origin and the upper right of the function display area 62 is defined in advance with the lower left of the function display area 62 as the origin. Therefore, in step S139, first, the value of the touch counter 338 is converted into the coordinate on the horizontal axis (X axis) of the function display area. Further, the position of the vertical axis (Y axis) is calculated by substituting the converted coordinates into the variable of the horizontal axis (X axis) of the linear function. The position (coordinates) between the horizontal axis and the vertical axis calculated in this way is the first coordinate.
  • step S139 a coordinate obtained by rotating the first coordinate by 180 degrees with respect to the center point of the function display area 62 is calculated as the second coordinate. Therefore, the processor 24 that executes the process of step S139 functions as a calculation unit. In other embodiments, the first coordinates and the second coordinates may be calculated using other methods.
  • step S141 the calculated first coordinate and second coordinate are stored. That is, the two coordinates described above are stored in the invalid area buffer 332.
  • the processor 24 ends the invalid area setting process.
  • step S131 determines whether or not 1 is a predetermined value or more. That is, also in the second embodiment, the invalid area setting process ends when the first predetermined time elapses without being touched after the setting key 70 is touched.
  • the invalid area is displayed so as to be visible by the user. Further, the size and display range of the invalid area can be arbitrarily changed. Since the mobile phone 10 of the third embodiment is substantially the same as that of the first embodiment, the description of the electrical configuration of the mobile phone 10, the memory map of the RAM 34, and the overlapping flowcharts will be omitted.
  • an invalid area 76 that can be viewed by the user is set.
  • the user can clearly recognize the position of the invalid area, so that erroneous operations on the touch panel 38 can be further reduced.
  • the user can arbitrarily change the position and size of the invalid area by the operation described below.
  • the ineffective area 76 can be narrowed as shown in FIG. 13 (B) by simultaneously touching two points in the effective area and then sliding outward.
  • illustration is abbreviate
  • the display range of the invalid area 74 changes so that the effective area moves upward. That is, the position of the effective area moves according to the direction of the slide.
  • illustration is abbreviate
  • the user can arbitrarily change the size and display range of the invalid area by performing a touch operation for changing the invalid area.
  • the invalid area 76 of the third embodiment diagonal lines are drawn so that the through image can be transmitted.
  • the invalid area 76 has a color set to have a high transparency, or transparency. The color which has may be painted.
  • a boundary line is displayed at the boundary portion between the invalid area and the effective area, or a boundary display in a square bracket shape is displayed at the corner portion between the invalid area and the effective area. It may be done.
  • the boundary line or boundary display may be a solid line or a broken line, or may be a color line having transparency.
  • the processor 24 of the third embodiment is shown in FIG. 15 in addition to a plurality of processes shown in FIGS. 7 and 9 (FIG. 11) under the control of a Linux-based OS such as Android and REX, and other OSs. Multiple tasks including auxiliary function processing are processed in parallel.
  • a Linux-based OS such as Android and REX, and other OSs.
  • FIG. 15 is a flowchart of auxiliary function processing according to the third embodiment.
  • the same steps as those in the auxiliary function processing shown in FIG. 8 are given the same step numbers, and detailed description thereof is omitted.
  • step S41 the processor 24 determines whether the setting key 70 has been touched. If “YES”, the processor 24 deletes the key display in step S43. Subsequently, in step S45, an invalid area setting process is executed, and in step S47, it is determined whether or not the setting operation is successful. If “YES” in the step S47, an invalid area is set in a step S49.
  • step S161 the set invalid area is displayed. That is, the invalid area 76 is displayed in the function display area 62 as shown in FIG.
  • step S51 a key is displayed in the effective area, the auxiliary function process is terminated, and the process returns to the camera function process. Further, the processor 24 that executes the process of step S161 functions as an invalid area display unit.
  • step S47 If “NO” in the step S47, that is, if the setting operation fails, an error is displayed in a step S53, and the process proceeds to the step S51.
  • step S41 determines whether or not an invalid area is set in a step S57. If “NO” in the step S57, the process proceeds to a step S65, and if “YES”, it is determined whether or not the release key is operated in a step S59. If “YES” in the step S59, the invalid area is canceled in a step S61, and the key is displayed again in the valid area in a step S63. And if the process of step S63 is complete
  • step S59 determines whether or not a changing operation is performed in a step S163. For example, it is determined whether a change operation that slides after touching two points simultaneously or a change operation that slides after touching the upper right of the effective area is performed. If “NO” in the step S163, the process proceeds to a step S65.
  • the invalid area 74 is determined based on the changing operation in a step S165. Recalculate the coordinates of. That is, the coordinate range of the invalid area 76 is recalculated using each release point as the first coordinate and the second coordinate. As shown in FIG. 14A, when a change operation of sliding after touching the upper right of the effective area is performed, the coordinates of the release point are used as the first coordinates, and the second coordinates positioned at the diagonal of the effective area. Is calculated. In other embodiments, the second coordinates may be calculated by a method.
  • step S167 the display of the invalid area 76 is changed. That is, the position where the invalid area 76 is displayed is changed based on the first coordinate and the second coordinate calculated as described above. And if the process of step S167 is complete
  • step S57 If “NO” in the step S57 or the step S163, it is determined whether or not the grid key 68 is operated in a step S65, and if “YES”, the grid is displayed.
  • the invalid area can be set without displaying the auxiliary key 66 and the setting key 70 in the valid area. Since the cellular phone 10 of the fourth embodiment is substantially the same as the first embodiment, the description of the electrical configuration of the cellular phone 10, the memory map of the RAM 34, and the overlapping flowcharts will be omitted.
  • auxiliary key 66 and setting key 70 are not displayed in function display area 62. Then, if the touch and release is performed twice on the touch panel 38, the invalid area 76 is set as shown in FIG.
  • the touch and release twice in succession is referred to as “double touch” here.
  • the photographing key 64 is displayed on the effective amount machine, but the release key 72 is not displayed. In this case, the user can cancel the invalid area 76 by double-touching again within the effective area.
  • the size of the invalid area 76 to be set first is determined in advance.
  • the user performs the changing operation described in the third embodiment. Just do it.
  • a release key 72 with a cross mark in the effective area may be displayed.
  • the grid can be displayed by long pressing the menu key 26b.
  • the invalid areas 76 a and 76 b are set separately on the left and right of the function display area 62.
  • illustration is abbreviate
  • the cellular phone 10 of the fifth embodiment is substantially the same as the first embodiment, the description of the electrical configuration of the cellular phone 10, the memory map of the RAM 34, the overlapping flow diagrams, and the like is omitted.
  • first embodiment to the fifth embodiment can be arbitrarily combined, and a specific combination can be easily imagined, so a detailed description is omitted.
  • the invalid area may be set based on a graphic drawn by the user through a touch operation.
  • the invalid area is set based on a rectangle that can surround the drawn figure with the minimum size.
  • region of each Example was shown by the rectangle, an ellipse may be sufficient and another polygon may be sufficient.
  • the communication method of the mobile phone 10 is a CDMA method, but an LTE (Long Term Evolution) method, a W-CDMA method, a GSM (registered trademark) method, a TDMA method, an FDMA method, a PHS method, or the like may be adopted. .
  • the plurality of programs used in the present embodiment may be stored in the HDD of the data distribution server and distributed to the mobile phone 10 via the network.
  • a storage medium may be sold or distributed in a state where a plurality of programs are stored in a storage medium such as an optical disk such as a CD, DVD, or BD (Blu-ray Disc), a USB memory, or a memory card.
  • the present embodiment may be applied not only to the mobile phone 10 but also to a smartphone and a PDA (Personal Digital Assistant).
  • the specific numerical values such as the first predetermined time, the second predetermined time, the first predetermined value, the second predetermined value, and the time at which the processing is repeated are merely examples.
  • the product specifications can be changed as needed.
  • a camera module that outputs an image of a subject
  • a display unit that displays an image output from the camera module
  • a touch panel provided on the display unit
  • a detection unit that detects a touch operation within the touch range of the touch panel
  • a detection A portable terminal having an execution unit that executes a predetermined process related to shooting when a touch operation is detected by the unit, the portable terminal including a setting unit that sets an invalid area that disables the touch operation in the touch range It is.
  • the camera module (40-44) of the portable terminal (10: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) includes an image sensor (42) and the like.
  • the obtained subject image is output.
  • a display part (30) displays the through image based on the image which a camera module outputs, for example.
  • a colorless and transparent touch panel is provided on the display unit so that display contents can be visually recognized.
  • the detection unit detects a touch operation performed within the touch range of the touch panel.
  • the execution unit (24, S17) executes predetermined processing related to shooting such as focus processing and shooting processing.
  • the setting unit (24, S49) sets the invalid area (74, 76) so as to surround the periphery in the touch range, for example.
  • the invalid area when the invalid area is not displayed, it is possible to display the image without changing the size of the image. Therefore, it is possible to prevent the visibility of the image displayed on the display unit from being deteriorated.
  • Another embodiment further includes a key display unit that displays a processing key relating to shooting in an effective area other than the invalid area in the touch area when the invalid area is set by the setting unit.
  • the key display unit when the invalid area is set, sets the key (64) for executing the above-described process in the valid area other than the invalid area in the touch range. indicate.
  • the processing key includes a shooting key
  • the predetermined processing related to shooting includes a shooting process
  • the operability of the mobile terminal can be maintained even if the invalid area is set. Further, the user can grasp the approximate position and range of the invalid area by looking at the keys displayed after the invalid area is set.
  • a first storage unit that stores a first coordinate based on a touch operation on the touch panel, and a second coordinate based on the touch operation on the touch panel after the first coordinate is stored by the first storage unit.
  • the setting unit sets an invalid area based on the first coordinates stored by the first storage unit and the second coordinates stored by the second storage unit.
  • the first storage unit (24, S87) stores the position touched at the first location as the first coordinate
  • the second storage unit (24, S107) touches at the second location.
  • the determined position is stored as the second coordinate.
  • the setting unit sets the invalid area so that the first coordinate and the second coordinate are vertices.
  • the user can arbitrarily determine the size of the invalid area to be set.
  • the first coordinate and the first coordinate are calculated based on the measurement unit that measures the operation time from when the touch operation is detected by the detection unit until the touch operation is completed, and the operation time measured by the measurement unit.
  • a calculation unit that calculates two coordinates is further provided, and the setting unit sets the invalid area based on the first coordinate and the second coordinate calculated by the calculation unit.
  • the measurement unit (24, S133, S135) measures, for example, the time from when the finger is touched to the touch panel until it is released as the operation time.
  • the calculation unit (24, S139) calculates the first coordinate and the second coordinate using a linear function or the like. Then, the setting unit sets an invalid area based on the calculated first coordinate and second coordinate.
  • the user can set an invalid area simply by touching, and can arbitrarily determine its size.
  • inventions further include an invalid area display unit that displays the invalid area set by the setting unit.
  • the invalid area display unit (24, S161) draws a diagonal line so that the through image is transmitted through the set invalid area, paints a color with high transparency, or invalid.
  • a boundary line such as a solid line or a broken line is displayed at the boundary between the area and the effective area so that the user can recognize the boundary line.
  • Still another embodiment further includes a changing unit that changes the invalid area when a touch operation is performed to change the invalid area displayed by the invalid area display unit.
  • the change unit (24, S167) for example, when a touch operation is performed to change the size of the invalid area or the display position, the size or display of the invalid area based on the touch operation. Change the position to be played.
  • the user can arbitrarily change the size and display position of the invalid area by performing a touch operation for changing the invalid area after setting the invalid area.
  • the setting unit sets the invalid area when a touch operation for setting the invalid area is performed.
  • a setting key (70) for setting an invalid area is displayed on the display unit. Then, the setting unit sets the invalid area based on the touch operation on the setting key.
  • Other embodiments further include a release unit for releasing the invalid area set by the setting unit when a touch operation for releasing the invalid area is performed.
  • a cancel key (72) for canceling the invalid area is displayed on the display unit.
  • the cancel unit (24, S61) cancels the invalid area when a touch operation is performed on the cancel key.
  • the user can arbitrarily set or cancel the invalid area.
  • Still another embodiment includes a camera module (40-44) that outputs an image of a subject, a display unit (30) that displays an image output from the camera module, a touch panel (38) provided on the display unit, A method for setting an invalid area of a mobile terminal (10), which includes a detection unit (36) that detects a touch operation within a touch range and an execution unit (S17) that executes a predetermined process related to shooting when the detection unit detects a touch operation.
  • the invalid area setting method for invalidating the touch operation (74, 76) is set in the touch range (S49).

Abstract

 【構成】携帯電話機10は、イメージセンサ42などが接続されるカメラ制御回路40を備える。また、カメラ機能が実行されると、タッチパネル38が上に設けられたディスプレイ30に、スルー画像が表示される。スルー画像が表示されているときに、設定キー70に対してタッチ操作がされた後に、領域を指定するタッチ操作がされると、無効領域74がタッチパネル38のタッチ範囲の中に設定される。また、タッチ範囲の中の無効領域74以外の有効領域には、撮影キー64や、解除キー72が表示される。

Description

携帯端末および無効領域設定方法
 この発明は、携帯端末および無効領域設定方法に関し、特に画像を撮影することができる、携帯端末および無効領域設定方法に関する。
 画像を撮影することができる、携帯端末の一例が特許文献1に開示されている。特許文献1のデジタルカメラでは、タッチセンサから信号が入力されると、検出された接触位置を避けるように撮影画像の表示エリアが設定される。そして、この表示エリアには、撮影画像や、スルー画などが表示される。
特開2007-28536号公報[H04N 5/225, H04N 101/00]
 ところが、特許文献1のデジタルカメラでは、接触位置を避けるように撮影画像の表示エリアを設定した場合、スルー画などの一部が切り取られたり、縮小されたりするため、使用者は撮影画像やスルー画を見づらくなる。
 それゆえに、この発明の主たる目的は、新規な、携帯端末および無効領域設定方法を提供することである。
 この発明の他の目的は、無効領域を設定しても、スルー画像の視認性を向上させることができる、携帯端末および無効領域設定方法を提供することである。
 この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
 この発明の第1の局面は、被写体の画像を出力するカメラモジュール、カメラモジュールが出力する画像を表示する表示部、表示部の上に設けられるタッチパネル、タッチパネルのタッチ範囲内のタッチ操作を検出する検出部および検出部でタッチ操作を検出したとき撮影に関する所定処理を実行する実行部を有する、携帯端末であって、タッチ範囲の中に、タッチ操作を無効にする無効領域を設定する設定部を備える、携帯端末である。
 この発明の第1の局面では、携帯端末(10:実施例において対応する部分を例示する参照符号。以下、同じ。)のカメラモジュール(40-44)は、イメージセンサ(42)などを含み、そのイメージセンサによって得られた被写体の画像を出力する。表示部(30)は、たとえば、カメラモジュールが出力する画像に基づく、スルー画像を表示する。また、表示部の上には、表示内容が視認できるように、無色透明なタッチパネルが設けられる。検出部は、そのタッチパネルのタッチ範囲内で行われたタッチ操作を検出する。そして、実行部(24,S17)は、タッチ操作がされると、フォーカス処理や撮影処理などの撮影に関する所定処理を実行する。そして、設定部(24,S49)は、たとえばタッチ範囲の中で、周囲を囲うように無効領域(74,76)を設定する。
 この発明の第1の局面によれば、無効領域を表示しないようにした場合、画像のサイズを変化させずに表示できるため、表示部に表示される画像の視認性が悪くなるのを防ぐことができる。
 この発明の第2の局面は、被写体の画像を出力するカメラモジュール(40-44)、カメラモジュールが出力する画像を表示する表示部(30)、表示部の上に設けられるタッチパネル(38)、タッチパネルのタッチ範囲内のタッチ操作を検出する検出部(36)および検出部でタッチ操作を検出したとき撮影に関する所定処理を実行する実行部(S17)を有する、携帯端末(10)の無効領域設定方法であって、タッチ範囲の中に、タッチ操作を無効にする無効領域(74,76)を設定する(S49)、無効領域設定方法である。
 この発明の第2の局面でも、無効領域を表示しないようにした場合、スルー画像のサイズを変化させずに表示できるため、表示部に表示される画像の視認性が悪くなるのを防ぐことができる。
 この発明によれば、無効領域を表示しないようにした場合、スルー画像のサイズを変化させずに表示できるため、表示部に表示される画像の視認性が悪くなるのを防ぐことができる。
 この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機の電気的な構成を示す図解図である。 図2は図1に示す携帯電話機の外観の一例を示す図解図である。 図3は図1に示すディスプレイに表示される第1実施例のスルー画像の一例を示す図解図である。 図4は図1に示すディスプレイに表示される第1実施例のスルー画像の他の一例を示す図解図である。 図5は図1に示すディスプレイに表示される第1実施例のスルー画像のその他の一例を示す図解図である。 図6は図1に示すRAMのメモリマップの一例を示す図解図である。 図7は図1に示すプロセッサのカメラ制御処理の一例を示すフロー図である。 図8は図1に示すプロセッサの第1実施例の補助機能処理の一例を示すフロー図である。 図9は図1に示すプロセッサの第1実施例の無効領域設定処理の一例を示すフロー図である。 図10は図1に示すディスプレイに表示される第2実施例のスルー画像の一例を示す図解図である。 図11は図1に示すプロセッサの第2実施例の無効領域設定処理の一例を示すフロー図である。 図12は図1に示すディスプレイに表示される第3実施例のスルー画像の一例を示す図解図である。 図13は図1に示すディスプレイに表示される第3実施例のスルー画像の他の一例を示す図解図である。 図14は図1に示すディスプレイに表示される第3実施例のスルー画像のその他の一例を示す図解図である。 図15は図1に示すプロセッサの第3実施例の補助機能処理の一例を示すフロー図である。 図16は図1に示すディスプレイに表示される第4実施例のスルー画像の一例を示す図解図である。 図17は図1に示すディスプレイに表示される第5実施例のスルー画像の一例を示す図解図である。
<第1実施例>
 図1を参照して、携帯電話機10は、携帯端末の一種であり、コンピュータまたはCPUと呼ばれるプロセッサ24を含む。また、プロセッサ24には、無線通信回路14、A/D変換器16、D/A変換器20、キー入力装置26、表示ドライバ28、フラッシュメモリ32、RAM34、タッチパネル制御回路36およびカメラ制御回路40などが接続される。
 無線通信回路14にはアンテナ12が接続される。A/D変換器16にはマイク18が接続され、D/A変換器20にはスピーカ22が接続される。表示ドライバ28にはディスプレイ30が接続される。タッチパネル制御回路36にはタッチパネル38が接続される。そして、カメラ制御回路40にはイメージセンサ42およびフォーカスレンズ44が接続される。
 プロセッサ24は携帯電話機10の全体制御を司る。RAM34は、プロセッサ24の作業領域(描画領域を含む)ないしバッファ領域として用いられる。フラッシュメモリ32には、携帯電話機10の文字、画像、音声、音および映像のようなコンテンツのデータが記録される。
 A/D変換器16は、当該A/D変換器16に接続されたマイク18を通して入力される音声ないし音についてのアナログ音声信号を、デジタル音声信号に変換する。D/A変換器20は、デジタル音声信号をアナログ音声信号に変換(復号)して、図示しないアンプを介してスピーカ22に与える。したがって、アナログ音声信号に対応する音声ないし音がスピーカ22から出力される。また、プロセッサ24は、アンプの増幅率を制御することで、スピーカ22から出力される音声の音量を調整することができる。
 キー入力装置26は操作部と呼ばれ、通話キー26a、メニューキー26bおよび終話キー26cなどを含む。また、使用者が操作したキーの情報(キーデータ)はプロセッサ24に入力される。さらに、キー入力装置26に含まれる各キーが操作されると、クリック音が鳴る。したがって、使用者は、クリック音を聞くことで、キー操作に対する操作感を得ることができる。
 表示ドライバ28は、プロセッサ24の指示の下、当該表示ドライバ28に接続されたディスプレイ30の表示を制御する。また、表示ドライバ28は表示する画像データを一時的に記憶するビデオメモリ(図示せず)を含む。なお、ディスプレイ30は表示部と呼ばれることもある。
 タッチパネル38は、指などの物体が表面に接近して生じた電極間の静電容量の変化を検出する静電容量方式で、たとえば1本または複数本の指がタッチパネル38に触れたことを検出する。また、タッチパネル38は、ディスプレイ30の上に設けられ、その画面内で、任意の位置を指示するためのポインティングデバイスである。検出部として機能するタッチパネル制御回路36は、タッチパネル38のタッチ範囲内で、押したり、撫でたり、触られたりするタッチ操作を検出し、そのタッチ操作の位置を示す座標のデータをプロセッサ24に出力する。つまり、使用者は、タッチパネル38の表面を指で、押したり、撫でたり、触れたりすることによって、操作の方向や図形などを携帯電話機10に入力することができる。
 ここで、使用者がタッチパネル36の上面を指で触れる操作を「タッチ」と言うことにする。一方、タッチパネル36から指を離す操作を「リリース」と言うことにする。また、タッチパネル36の表面を撫でる操作を「スライド」と言い、タッチした後にスライドし、リリースする操作を「タッチスライド」と言うことにする。さらに、使用者がタッチパネル38をタッチして、続けてリリースする操作を「タッチアンドリリース」と言うことにする。そして、「タッチ操作」には、上記したタッチ、リリース、スライド、タッチスライドおよびタッチアンドリリースなどのタッチパネル36に対して行う操作が含まれる。
 また、タッチによって示された座標を「タッチ点」(タッチ開始位置)、リリースによって示された座標を「リリース点」(タッチ終了位置)と言うことにする。
 なお、タッチ操作は指だけに限らず、導電体が先端に取り付けられたタッチペンなどによって行われてもよい。また、タッチパネル38の検出方式には、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などであってもよい。
 カメラ制御回路40は、携帯電話機10で静止画像または動画像を撮影するための回路である。たとえば、キー入力装置26に対してカメラ機能を実行する操作が行われると、プロセッサ24はカメラ機能を実行して、カメラ制御回路40を起動する。なお、カメラ制御回路40、イメージセンサ42およびフォーカスレンズ44は、まとめてカメラモジュールとして機能する。
 イメージセンサ42の撮像エリアには、SXGA(1280×1024画素)に対応する受光素子が表示されている。そのため、たとえば、被写体の光学像はイメージセンサ42に照射され、撮像エリアでは光電変換によって、被写体の光学像に対応する電荷つまりSXGAの生画像信号が生成される。なお、使用者は、画像データのサイズ(画素数)を、SXGAの他に、XGA(1024×768画素)およびVGA(640×480画素)などに変更することができる。
 カメラ機能が実行されると、被写体のリアルタイム動画像つまりスルー画像(プレビュー画像)をディスプレイ30に表示するべく、プロセッサ24は、カメラ制御回路40に内蔵されるイメージセンサドライバを起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作を、イメージセンサドライバに命令する。
 イメージセンサドライバは、イメージセンサ42の撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、生画像信号が、イメージセンサ42から出力される。また、出力された生画像信号はカメラ制御回路40に入力され、カメラ制御回路40は入力された生画像信号に対して、色分離、白バランス調整、YUV変換などの処理を施し、YUV形式の画像データを生成する。そして、YUV形式の画像データはプロセッサ24に入力される。
 また、プロセッサ24に入力されたYUV形式の画像データは、プロセッサ24によってRAM34に格納(一時記憶)される。さらに、格納されたYUV形式の画像データは、プロセッサ24でRGBデータに変換された後に、RAM34から表示ドライバ28に与えられる。そして、RGB形式の画像データがディスプレイ30に出力される。これによって、被写体を表す低画素(たとえば、320×240画素)のスルー画像がディスプレイ30に表示される。
 さらに、カメラ制御回路40は生画像信号からフォーカス評価値を算出し、そのフォーカス評価値をプロセッサ24に出力する。プロセッサ24は、カメラ制御回路40から出力されたフォーカス評価値に基づいて、AF(Autofocus)処理を実行する。AF処理が実行されると、カメラ制御回路40はプロセッサ24の指示の下、フォーカスレンズ44のレンズ位置を調整する。その結果、被写体にピントが合わせられたスルー画像がディスプレイ30に表示される。
 ここで、キー入力装置26に対して静止画像の撮影操作が行われると、プロセッサ24は、静止画像の本撮影処理を実行する。つまり、プロセッサ24は、イメージセンサ42から出力されるSXGAの生画像信号に信号処理を施して、RAM34に一旦格納し、フラッシュメモリ32に対する記録処理を実行する。記録処理が実行されると、プロセッサ24を通してRAM34から画像データが読み出される。そして、プロセッサ24は、読み出した画像データにメタ情報を関連付けて、1つのファイルとしてフラッシュメモリ32に記録する。さらに、プロセッサ24は、図示しないスピーカから、本撮影処理が実行されていること通知する音を出力させる。
 なお、メタ情報には、時刻情報、画像サイズおよび携帯電話機10の機種名(型番)などが含まれる。また、携帯電話機10にメモリカードが接続できる場合、画像データはメモリカードに保存されてもよい。また、画像データに関連付けられるメタ情報はExifフォーマットで保存される。
 無線通信回路14は、CDMA方式での無線通信を行うための回路である。たとえば、使用者がキー入力装置26を用いて電話発信(発呼)を指示すると、無線通信回路14は、プロセッサ24の指示の下、電話発信処理を実行し、アンテナ12を介して電話発信信号を出力する。電話発信信号は、基地局および通信網(図示せず)を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ24は通話処理を実行する。
 通常の通話処理について具体的に説明すると、相手の電話機から送られてきた変調音声信号はアンテナ12によって受信される。受信された変調音声信号には、無線通信回路14によって復調処理および復号処理が施される。そして、これらの処理によって得られた受話音声信号は、D/A変換器20によってアナログ音声信号に変換された後、スピーカ22から出力される。一方、マイク18を通して取り込まれた送話音声信号は、A/D変換器16によってデジタル音声信号に変換された後、プロセッサ24に与えられる。デジタル音声信号に変換された送話信号には、プロセッサ24の指示の下、無線通信回路14によって符号化処理および変調処理が施され、アンテナ12を介して出力される。したがって、変調音声信号は、基地局および通信網を介して相手の電話機に送信される。
 また、相手の電話機からの電話発信信号がアンテナ12によって受信されると、無線通信回路14は、電話着信(着呼)をプロセッサ24に通知する。これに応じて、プロセッサ24は、表示ドライバ28を制御して、着信通知に記述された発信元情報(電話番号など)をディスプレイ30に表示する。また、これとほぼ同時に、プロセッサ24は、図示しないスピーカから着信音(着信メロディ、着信音声と言うこともある。)を出力させる。
 そして、使用者が通話キーを用いて応答操作を行うと、無線通信回路14は、プロセッサ24の指示の下、電話着信処理を実行する。さらに、通信可能状態が確立され、プロセッサ24は上述した通常の通話処理を実行する。
 また、通話可能状態に移行した後に終話キーによって通話終了操作が行われると、プロセッサ24は、無線通信回路14を制御して、通話相手に通話終了信号を送信する。そして、通話終了信号の送信後、プロセッサ24は通話処理を終了する。また、先に通話相手から通話終了信号を受信した場合も、プロセッサ24は通話処理を終了する。さらに、通話相手によらず、移動通信網から通話終了信号を受信した場合も、プロセッサ24は通話処理を終了する。
 図2(A)は、携帯電話機10の表面の外観を示す外観図であり、図2(B)は携帯電話機10の裏面の外観を示す外観図である。図2(A)を参照して、携帯電話機10は、ストレート型の形状をしており、平面矩形の筐体Cを有する。図示しないマイク18は、筐体Cに内蔵され、内蔵されたマイク18に通じる開口OP2は筐体Cの縦方向一方の側面に設けられる。同じく、図示しないスピーカ22は、筐体Cに内蔵され、内蔵されたスピーカ22に通じる開口OP1は、筐体Cの縦方向他方の表面に設けられる。
 ディスプレイ30は、モニタ画面が筐体Cの表面側から見えるように取り付けられる。また、ディスプレイ30の上にはタッチパネル38が設けられる。さらに、図示しないカメラモジュールも筐体Cに内蔵され、カメラモジュールのフォーカスレンズ44などに通じる開口OP3は、筐体Cの縦方向他方の裏面に設けられる。そして、キー入力装置26は、通話キー26a、機能キー26bおよび終話キー26cを含む。また、これらのキーは筐体Cの表面に設けられる。
 たとえば、使用者は、ディスプレイ30に表示されたダイヤルキーに対して、タッチ操作を行うことで電話番号を入力し、通話キー26aによって音声発信操作を行う。そして、使用者は、通話が終了すると、終話キー26cによって通話終了操作を行う。また、使用者は、機能キー26bを操作することで、ディスプレイ30にメニュー画面を表示する。さらに、使用者は、ディスプレイ30に表示されたソフトキーおよびメニューに対してタッチ操作を行うことで、メニューの選択や確定を行う。さらに、使用者は、筐体Cの裏面を被写体に向けて撮影操作を行うことで、被写体の画像を撮影することができる。
 なお、アンテナ12、無線通信回路14、A/D16、D/A20、プロセッサ24、表示ドライバ28、フラッシュメモリ32、RAM34およびタッチパネル制御回路36は筐体Cに内蔵されているため、図2(A),(B)では図示されない。
 図3はスルー画像を表示するディスプレイ30の一例を示す図解図である。ディスプレイ30の表示は、日時、電池残量および受信状態などを表すアイコンを含む状態表示領域60およびスルー画像が表示される機能表示領域62を含む。機能表示領域62には撮影に関する処理キーとして、撮影処理を実行するための撮影キー64およびカメラ機能の補助機能を実行するための補助キー66が表示される。
 図3を参照して、被写界には携帯電話機10側から花壇、人の順番で並んでおり、機能表示領域62には、人の手前に置かれた花壇にピントが合ったスルー画像が表示されている。ここで、使用者は、機能表示領域62の任意の位置をタッチすることで、AF処理を実行させることができる。また、AF処理が実行された後に撮影キー64が操作されると、図3に示すスルー画像に対応する画像データがフラッシュメモリ32に保存される。
 たとえば、図4(A)を参照して、スルー画像に含まれる人の位置をタッチすると、タッチ点を中心とする所定範囲のフォーカス評価値が最大となるように、フォーカスレンズ44のレンズ位置が調整される。その結果、図4(B)に示すように、花壇の奥に居る人に対してピントが合わせられたスルー画像が表示されるようになる。つまり、使用者は、任意の位置をタッチするだけで、その位置にピントが合ったスルー画像を表示させることができる。
 また、図3などに示す補助キー66が操作されると、図5(A)に示すように、機能表示領域62には、グリッドキー68および設定キー70を含む補助キー群が、補助キー66の代わりに表示される。グリッドキー68は、複数の縦線と横線とから構成されるグリッドを、機能表示領域62に表示するためのキーである。たとえば、使用者は、表示されたグリッドを利用して、撮影する画像の構図を決めることができる。
 また、設定キー70は、タッチパネル38のタッチ範囲の中に、タッチ操作を無効にする無効領域を設定するためのキーである。たとえば、図5(B)を参照して、設定キー70が操作されると、機能表示領域62に表示された各キーが消去される。この状態で、位置T1および位置T2に対してタッチされると、それらの位置に対応する第1座標および第2座標に基づいて、タッチ範囲の中に無効領域が設定される。
 たとえば、図5(C)を参照して、タッチ範囲の中の有効領域の2つの頂点が、第1座標および第2座標となるように、無効領域74が設定される。また、有効領域には、撮影キー64および解除キー72が表示される。また、解除キー72も上述した処理キーに含まれる。
 なお、使用者がタッチする位置は、図5(B)に示すものだけに限られない。つまり、使用者は、無効領域74の範囲を任意に決めることができる。
 ここで、第1実施例では、理解を深めるために、無効領域74を斜線によって図示しているが、実際には無効領域74は使用者によって認識されることはない。
 このように、本実施例では、有効領域内にキーが表示されるため、無効領域74が設定されても携帯電話機10の操作性を保つことができる。
 また、無効領域74が設定された状態で携帯電話機10が保持される場合、使用者が筐体Cの側部を手で押さえたりしても、その手や指などによってタッチパネル38を誤操作する可能性を低減できる。
 また、無効領域74が表示されないようにすることで、スルー画像のサイズを変化させずに表示できるため、ディスプレイ30に表示されるスルー画像の視認性が悪くなるのを防ぐことができる。そして、使用者は、無効領域74が設定された後に表示される撮影キー64などを見ることで、無効領域64のおよその位置や範囲を把握することができる。
 また、解除キー72が操作されると無効領域74は解除され、ディスプレイ30の表示は図5(A)に示す状態に戻る。つまり、使用者は、設定キー70および解除キー72を利用することで、任意に無効領域を設定したり、解除したりすることができる。
 また、本実施例では、無効領域が設定された状態でも、タッチパネル38を利用して画像を撮影することができる。
 なお、本実施例では、有効領域の右下から所定の位置に撮影キー64および解除キー72が表示されるように処理される。
 また、図5(B)に示す状態で、タッチ操作が行われないまま、第1所定時間(たとえば、30秒)が経過すれば、エラーメッセージが表示された後に、図5(A)の状態に戻る。つまり、設定キー70が操作され、無効領域を設定するための操作を受け付ける状態に遷移しても、タッチ操作が行われないまま第1所定時間が経過すると、ディスプレイ30の表示は元の状態に戻される。
 図6は、RAM34のメモリマップを示す図である。RAM34のメモリマップには、プログラム記憶領域302およびデータ記憶領域304が含まれる。また、プログラムおよびデータの一部は、フラッシュメモリ32から一度に全部または必要に応じて部分的かつ順次的に読み出され、RAM34に記憶されてからプロセッサ24によって処理される。
 プログラム記憶領域302には、携帯電話機10を動作させるためのプログラムが記憶されている。たとえば、携帯電話機10を動作させるためのプログラムは、カメラ制御プログラム310、補助機能プログラム312および無効領域設定プログラム314などを含む。
 カメラ制御プログラム310は、カメラ機能を実現するために実行されるプログラムであり、AF処理や撮影処理などをサブルーチンとして実行させる。補助機能プログラム312は、上記カメラ制御プログラム310のサブルーチンであり、グリッドを表示したり、無効領域の設定/解除を制御したりするためのプログラムである。無効領域設定プログラム314は、補助機能プログラム312のサブルーチンであり、無効領域を設定するためのタッチ操作に基づいて無効領域を設定するためのプログラムである。
 なお、図示は省略するが、携帯電話機10を動作させるためのプログラムには、音声着信状態を通知するためのプログラム、AF制御や撮影制御に対応するプログラムも含まれる。
 続いて、データ記憶領域304には、タッチバッファ330および無効領域バッファ332が設けられるとともに、タッチ座標マップデータ334およびGUIデータ336が記憶される。また、データ記憶領域304には、タッチフラグ338、設定カウンタ340およびタッチカウンタ342も設けられる。
 タッチバッファ330には、タッチ操作によって得られたタッチ点、リリース点、現在のタッチ位置などのタッチ座標のデータが一時的に記憶される。無効領域バッファ332には、設定された無効領域の座標範囲や、第1座標および第2座標のデータが一時的に記憶される。
 タッチ座標マップデータ334は、タッチバッファ330に格納されるタッチ座標を、ディスプレイ30の表示座標に変換するためのデータである。GUIデータ336には、ディスプレイ30に表示されるGUIの画像データが含まれている。そのため、プロセッサ24は、GUIデータ336に基づいて、図3などに示す撮影キー64および補助キー66を表示する。
 タッチフラグ338は、タッチ操作が検出されたか否かを判断するためのフラグである。たとえば、タッチフラグ338は、1ビットのレジスタで構成される。タッチフラグ338がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ338がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。なお、本実施例では、タッチパネル制御回路36がタッチ操作を検出したとしても、そのタッチ操作のタッチ位置が無効領域74に含まれていれば、タッチフラグ338のオン/オフが切り替えられないようにすることで、タッチ操作を無効にしている。
 設定カウンタ340は、設定キー70が操作された後の時間を計測するためのカウンタである。つまり、プロセッサ24は、設定カウンタ340の値に基づいて、ディスプレイ30の表示を図5(B)の状態から図5(A)の状態に戻すか否かの判断を行う。
 タッチカウンタ342は、タッチ操作がされている時間を計測するためのカウンタである。また、このタッチカウンタ342については、後述する第3実施例で詳細に説明するため、ここでの詳細な説明は省略する。
 なお、図示は省略するが、データ記憶領域304には、待機状態で表示される画像データや、文字列のデータなどが記憶されると共に、携帯電話機10の動作に必要なカウンタや、フラグも設けられる。
 プロセッサ24は、Android(登録商標)およびREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図7に示すカメラ制御処理、図8に示す補助機能処理および図9に示す無効領域設定処理などを含む複数のタスクを並列的に処理する。
 図7はカメラ制御処理のフロー図である。カメラ機能を実行する操作がされると、プロセッサ24は、ディスプレイ30にGUIを表示する。つまり、図3に示すように、プロセッサ24は、GUIデータ336に基づいて、撮影キー66および補助キー66などをディスプレイ30に表示する。続いて、ステップS3では、スルー画像を表示する。つまり、カメラ制御回路40から出力される画像データに基づいて、ディスプレイ30にスルー画像が表示される。続いて、ステップS5では、カメラ機能の終了操作がされたか否かを判断する。たとえば、終話キー26cが操作されたかが判断される。ステップS5で“YES”であれば、たとえば終話キー26cが操作されると、カメラ制御処理は終了する。
 また、ステップS5で“NO”であれば、つまりカメラ機能の終了操作が行われていなければ、ステップS7でタッチされたか否かを判断する。つまり、タッチパネル制御回路36によってタッチ操作が検出され、タッチフラグ338がオンにされているかが判断される。ステップS7で“NO”であれば、つまり、タッチパネル38にタッチされていなければ、ステップS3に戻る。また、ステップS7で“YES”であれば、つまりタッチパネル38にタッチされていれば、ステップS9でタッチされた位置が無効領域か否かを判断する。つまり、タッチバッファ330に記録されているタッチ点や、現在のタッチ位置を示す座標が、無効領域バッファ332に記憶される座標範囲内に含まれているかが判断される。ステップS9で“YES”であれば、たとえばタッチ点が無効領域の座標範囲に含まれていれば、ステップS3に戻る。
 また、ステップS9で“NO”であれば、たとえばタッチ点が無効領域の座標範囲に含まれていなければ、ステップS11でAF操作か否かを判断する。たとえば、タッチされた位置が、キーが表示されていない有効領域内であるかが判断される。ステップS11で“YES”であれば、たとえば図4(A)に示すように、使用者が任意の位置をタッチすれば、ステップS13でAF処理を実行する。つまり、AF処理が実行されると、タッチ点を中心とする所定範囲において、フォーカス評価値が最大となるように、フォーカスレンズ44のレンズ位置が調整される。そして、ステップS13の処理が終了すれば、ステップS3に戻る。
 また、ステップS11で“NO”であれば、たとえば撮影キー64または補助キー66などのキーの表示範囲に対してタッチされていれば、ステップS15で撮影操作か否かを判断する。つまり、タッチ点が撮影キー64の表示範囲に含まれているかが判断される。ステップS15で“YES”であれば、つまり撮影キー64に対してタッチ操作がされていれば、ステップS17で撮影処理を実行する。つまり、上述したように、カメラ制御回路40から出力された画像データが、フラッシュメモリ32に保存される。そして、ステップS17の処理が終了すれば、ステップS3に戻る。なお、ステップS17の処理を実行するプロセッサ24は実行部として機能する。
 また、ステップS15で“NO”であれば、つまり撮影キー64に対してタッチ操作がされていなければ、ステップS19で補助キー群が表示されているか否かを判断する。つまり、図5(A)に示すように、補助キー66に代えて、グリッドキー68および設定キー70が表示されているかが判断される。ステップS19で“NO”であれば、つまり補助キー66が表示されていれば、そのキーが操作されたとして、ステップS21で補助キー群を表示して、ステップS3に戻る。つまり、補助キー66に代えて、グリッドキー68および設定キー70が機能表示領域62に表示される。
 また、ステップS19で“YES”であれば、たとえばグリッドキー68および設定キー70が機能表示領域62に表示されていれば、それらのキーが操作されたとしてステップS23で補助機能処理を実行し、ステップS3に戻る。
 図8は補助機能処理のフロー図である。上述したように、ステップS23の処理が実行されると、プロセッサ24はステップS41で、設定キー70か否かを判断する。つまり、タッチ点が設定キー70の表示範囲に含まれているかが判断される。ステップS41で“YES”であれば、つまり設定キー70にタッチ操作がされれば、ステップS43でキーの表示を消去する。つまり、図5(B)に示すように、撮影キー64、グリッドキー68および設定キー70の表示を消去する。続いて、ステップS45では、無効領域設定処理を実行する。なお、無効領域設定処理については、図9に示すフロー図を用いて詳細に説明するため、ここでの説明は省略する。
 続いて、ステップS47では、設定操作が成功したか否かを判断する。つまり、無効領域バッファ332に、第1座標および第2座標が格納されているかが判断される。ステップS47で“YES”であれば、つまり、無効領域バッファ332に第1座標および第2座標が格納されていれば、ステップS49で無効領域を設定する。たとえば、無効領域バッファ332に図5(B)に示す位置T1,T2と対応する第1座標および第2座標が記憶されていれば、図5(C)に示す無効領域74が設定される。続いて、ステップS51では、有効領域にキーを表示する。つまり、図5(C)に示すように、有効領域の右下から所定の位置に、撮影キー64および解除キー72が表示される。そして、ステップS51の処理が終了すれば、プロセッサ24は補助機能処理を終了して、カメラ制御処理に戻る。なお、ステップS49の処理を実行するプロセッサ24は設定部として機能し、ステップS51の処理を実行するプロセッサ24はキー表示部として機能する。
 一方、ステップS47で“NO”であれば、つまり設定操作が失敗した場合、ステップS53でエラー表示を行ってから、ステップS51に進む。たとえば、設定キー64が操作されてから、タッチ操作がされないまま第1所定時間が経過すると、ステップS47で設定操作は失敗したと判断され、ステップS53で「無効領域の設定に失敗しました」の文字列がディスプレイ30に表示される。そして、図5(A)の状態となるように、ステップS51で、撮影キー64、グリッドキー68および設定キー70が表示される。
 また、ステップS41で“NO”であれば、つまり設定キー70にタッチ操作がされていなければ、ステップS57で無効領域が設定されているか否かを判断する。つまり、無効領域バッファ332に無効領域の座標範囲を示すデータが記録されているかが判断される。ステップS57で“NO”であれば、つまり無効領域が設定されていなければ、ステップS65に進む。一方、ステップS57で“YES”であれば、たとえば図5(C)に示すように、無効領域74がタッチ範囲の中に設定されていれば、ステップS59で解除キー72かが判断される。つまり、タッチ点が解除キー72の表示範囲に含まれているか否かを判断する。ステップS59で“NO”であれば、つまり解除キー72に対してタッチ操作がされていなければ、ステップS65に進む。
 また、ステップS59で“YES”であれば、たとえば、図5(C)に示す、解除キー72に対してタッチ操作がされていれば、ステップS61で無効領域74を解除し、ステップS63で有効領域にキーを再表示する。つまり、無効領域バッファ332が初期化される。また、撮影キー64および解除キー72の表示を消去した後に、撮影キー64、グリッドキー68および設定キー70が、図5(A)に示すように表示される。そして、ステップS63の処理が終了すると、プロセッサ24は、補助機能処理を終了した後にカメラ制御処理に戻る。なお、ステップS61の処理を実行するプロセッサ24は解除部として機能する。
 また、無効領域が設定されていなかったり、設定されていても解除キー72にタッチ操作がされていなかったりすれば、ステップS65でグリッドキー68か否かを判断する。つまり、タッチ点がグリッドキー68の表示範囲に含まれているかが判断される。ステップS65で“YES”であれば、つまりグリッドキー68にタッチ操作がされていれば、ステップS67でグリッドを表示し、補助機能処理を終了する。また、ステップS65で“NO”であれば、つまりグリッドキー68にタッチ操作がされていなければ、プロセッサ24は補助機能処理を終了する。
 図9は無効領域設定処理のフロー図である。たとえば、補助機能処理でステップS45が実行されると、プロセッサ24はステップS81で、第1座標が指定されたか否かを判断する。たとえば、タッチパネル38に対してタッチされ、タッチ点がタッチバッファ330に記憶されたかが判断される。ステップS81で“NO”であれば、つまりタッチされていなければ、ステップS83で設定カウンタ340をインクリメントする。つまり、設定キーにタッチ操作がされてから、タッチされるまでの時間が計測される。続いて、ステップS85では設定カウンタの値が第1所定値以上か否かを判断する。つまり、図5(A)に示す設定キー70にタッチ操作がされてから、第1所定時間(たとえば、30秒)が経過したかが判断される。たとえば、設定カウンタ340が約100ミリ秒毎にカウントされる場合、第1所定値の値は「300」となる。そして、ステップS85では、設定カウンタ340の値が上記した第1所定値以上であるかが判断される。ステップS85で“YES”であれば、つまりタッチされないまま第1所定時間が経過すれば、無効領域設定処理を終了して、補助機能処理に戻る。一方、ステップS85で“NO”であればつまりタッチされないまま第1所定時間が経過していなければ、ステップS81に戻る。
 また、ステップS81で“YES”であれば、たとえば、図5(B)に示す位置T1に対してタッチされれば、ステップS87で第1座標を記憶する。たとえば、無効領域バッファ332に、図5(B)に示す位置T1の座標が第1座標として記憶される。そして、ステップS99では、設定カウンタ340が初期化される。つまり、第1座標が記憶されたため、設定カウンタ340の値が初期化される。なお、ステップS87の処理を実行するプロセッサ24は第1記憶部として機能する。
 続いて、ステップS101では、第2座標が入力されたか否かを判断する。つまり、二か所目の座標を入力するためにタッチされたかが判断される。ステップS101で“NO”であれば、つまり二か所目の座標を入力するタッチがされなければ、ステップS103で設定カウンタ340をインクリメントする。また、ステップS105で設定カウンタ340が第1所定値以上か否かを判断する。なお、ステップS103およびステップS105の処理は、ステップS83およびステップS85の処理と同じであるため、詳細な説明は省略する。
 ステップS105で“YES”であれば、つまり第1座標が記憶されてから、二か所目を入力するためのタッチがされないまま、第1所定時間が経過すれば、無効領域設定処理を終了して、補助機能処理に戻る。一方、ステップS105で“NO”であれば、つまり第1所定時間が経過していなければ、ステップS101に戻る。
 また、ステップS101で“YES”であれば、たとえば位置T2にタッチされれば、ステップS107で第2座標を記憶して、ステップS109で設定カウンタ340を初期化する。たとえば、ステップS107では、位置T2の座標が第2座標として無効領域バッファ332に記憶される。なお、ステップS107の処理を実行するプロセッサ24は第2記憶部として機能する。
 <第2実施例>
 第2実施例では、タッチされている時間に基づいて無効領域を設定するとともに、その大きさが決められる。なお、第2実施例の携帯電話機10は、第1実施例と略同じであるため、携帯電話機10の電気的な構成、RAM34のメモリマップおよび重複するフロー図などの説明は省略する。
 たとえば、図5に示す設定キー70にタッチ操作が行われた後、タッチされてからリリースされるまでの操作時間が短ければ、図10(A)に示すように、無効領域74が狭く設定される。一方、タッチされてからリリースされるまでの時間が長ければ、図10(B)に示すように、無効領域が広く設定される。つまり、使用者は、タッチするだけで無効領域を設定でき、その大きさも任意に決めることができる。
 なお、第2実施例では、操作時間が第2所定時間(たとえば、1秒)より短ければ、無効領域は設定されない。これは、設定される無効領域が狭くなりすぎるのを防ぐためである。
 第2実施例のプロセッサ24は、AndroidおよびREXなどのLinuxベースのOSや、その他のOSの制御下で、図7、図8に示す複数の処理に加えて、図11に示す無効領域設定処理を含む複数のタスクを並列的に処理する。
 図11は、第2実施例の無効領域設定処理のフロー図である。補助機能処理でステップS45が実行されると、プロセッサ24はステップS131で、タッチされたか否かを判断する。つまり、タッチフラグ338がオンになったかが判断される。続いて、ステップS133でタッチカウンタ342をインクリメントする。つまり、上述した操作時間を計測するためにタッチカウンタ342がインクリメントされる。なお、タッチカウンタ342は、約50ミリ秒毎にインクリメントされる。
 続いて、ステップS135では、リリースされたか否かを判断する。たとえば、使用者がタッチパネル38から指を離すことで、タッチフラグ338がオフに切り替わったかが判断される。なお、ステップS133,S135の処理を実行するプロセッサ24は計測部として機能する。
 ステップS135で“NO”であれば、つまりタッチフラグ338がオンのままであれば、ステップS133に戻る。また、ステップS135で“YES”であれば、たとえば使用者がタッチパネル38から指を離すことで、タッチフラグ338がオフに切り替われば、ステップS137でタッチカウンタが第2所定値以上か否かを判断する。つまり、操作時間が第2所定時間以上であるかが判断される。たとえば、上述の周期(50ミリ秒)でタッチカウンタ338がインクリメントされている場合、第2所定値は「20」となる。そして、ステップS137では、タッチカウンタ338の値が、上記した第2所定値以上であるかが判断される。
 ステップS137で“NO”であれば、つまり操作時間が第2所定時間よりも短ければ、第1座標および第2座標が算出されることなく無効領域設定処理は終了し、プロセッサ24は上位ルーチンである補助機能処理に戻る。
 また、ステップS137で“YES”であれば、つまり操作時間が第2所定時間以上であれば、ステップS139でタッチカウンタ338の値に基づいて第1座標および第2座標を算出する。
 具体的に説明すると、第2実施例では、機能表示領域62の左下を原点として、その原点と機能表示領域62の右上とを通る一次関数が予め定義されている。そのため、ステップS139では、まず、タッチカウンタ338の値を機能表示領域の横軸(X軸)の座標に変換する。また、変換した座標を、上記一次関数の横軸(X軸)の変数に代入することで、縦軸(Y軸)の位置を算出する。そして、このようにして算出された横軸と縦軸との位置(座標)が第1座標とされる。さらに、ステップS139では、機能表示領域62の中心点に対して、第1座標を180度回転させた座標を、第2座標として算出する。そのため、ステップS139の処理を実行するプロセッサ24は算出部として機能する。なお、他の実施例では、他の手法を利用して第1座標および第2座標が算出されてもよい。
 続いて、ステップS141では、算出された第1座標および第2座標を記憶する。つまり、上述した2つの座標が無効領域バッファ332に記憶される。そして、ステップS141の処理が終了すれば、プロセッサ24は無効領域設定処理を終了する。
 なお、ステップS131で“NO”であれば、つまり設定キー70に対してタッチ操作がされた後にタッチがされなければ、ステップS143で設定カウンタ340をインクリメントして、ステップS145で設定カウンタ340が第1所定値以上であるか否かが判断される。つまり、第2実施例でも、設定キー70に対してタッチ操作がされた後に、タッチされないまま第1所定時間が経過すれば、無効領域設定処理は終了する。
 <第3実施例>
 第3実施例では、無効領域は使用者によって目視できるように表示される。また、無効領域の大きさや表示範囲は任意に変更することができる。なお、第3実施例の携帯電話機10は、第1実施例と略同じであるため、携帯電話機10の電気的な構成、RAM34のメモリマップおよび重複するフロー図などの説明は省略する。
 図12を参照して、第3実施例では、使用者によって目視可能な無効領域76が設定される。これにより、使用者は無効領域の位置を明確に認識できるようになるため、タッチパネル38に対する誤操作をより減らすことができる。また、以下に説明する操作によって、使用者は、無効領域の位置や大きさを任意に変更できるようになる。
 図13(A)に示すように、有効領域内の2点を同時にタッチした後に、外側にスライドすることで、図13(B)に示すように無効領域76を狭くすることができる。なお、図示は省略するが、内側にスライドした場合は、無効領域76を広くすることができる。
 また、図14(A)に示すように、有効領域の右上をタッチしたまま、上方向にスライドすると、有効領域が上側に移動するように無効領域74の表示範囲が変化する。つまり、スライドの方向に応じて、有効領域の位置が移動する。また、図示は省略するが、上方向だけに限らず、使用者は任意の方向にスライドすることで、有効領域の位置を任意に変化させることができる。
 このように、使用者は、無効領域76を設定した後に、無効領域を変更するためのタッチ操作を行うことで、無効領域の大きさや表示範囲を任意に変更することができる。
 なお、第3実施例の無効領域76は、スルー画像が透過するように斜線が描画されているが、他の実施例では、無効領域76に、透過性が高く設定された色や、透過性を有する色が塗られていてもよい。
 また、他の実施例では、無効領域と有効領域との境の部分に境界線が表示されたり、無効領域と有効領域との境の角部分に鍵カッコのような形状をした境界表示が表示されたりしてもよい。そして、境界線または境界表示は、実線または破線などであってもよいし、透過性を有した色の線であってもよい。
 第3実施例のプロセッサ24は、AndroidおよびREXなどのLinuxベースのOSや、その他のOSの制御下で、図7、図9(図11)に示す複数の処理に加えて、図15に示す補助機能処理を含む複数のタスクを並列的に処理する。
 図15は、第3実施例の補助機能処理のフロー図である。なお、このフロー図では、図8に示す補助機能処理と同じステップには同一のステップ番号を付与し、詳細な説明は省略する。
 プロセッサ24は、ステップS41では設定キー70にタッチ操作がされたかを判断し、“YES”であればステップS43でキーの表示を消去する。続いて、ステップS45では、無効領域設定処理を実行し、ステップS47では設定操作が成功したか否かを判断する。ステップS47で“YES”であれば、ステップS49で無効領域を設定する。
 続いて、ステップS161では、設定された無効領域を表示する。つまり、図12に示すように、無効領域76が機能表示領域62に表示される。そして、ステップS51で有効領域にキーを表示し、補助機能の処理を終了して、カメラ機能処理に戻る。また、ステップS161の処理を実行するプロセッサ24は無効領域表示部として機能する。
 なお、ステップS47で“NO”であれば、つまり設定操作が失敗すれば、ステップS53でエラー表示をして、ステップS51に進む。
 また、ステップS41で“NO”であれば、つまり設定キー70にタッチ操作がされていなければ、ステップS57で無効領域が設定されているか否かを判断する。ステップS57で“NO”であれば、ステップS65に進み、“YES”であれば、ステップS59で解除キーが操作されたか否かを判断する。ステップS59で“YES”であれば、ステップS61で無効領域を解除し、ステップS63で有効領域にキーを再表示する。そして、ステップS63の処理が終了すれば、補助機能処理を終了する。
 また、ステップS59で“NO”であれば、つまり解除キーにタッチ操作がされていなければ、ステップS163で、変更操作がされたか否かを判断する。たとえば、2点に同時にタッチした後にスライドする変更操作や、有効領域の右上にタッチした後にスライドする変更操作がされたかが判断される。ステップS163で“NO”であれば、ステップS65に進む。
 ステップS163で“YES”であれば、たとえば、図13(A)に示すように、2点にタッチした後にスライドする変更操作がされると、ステップS165で、その変更操作に基づいて無効領域74の座標を再計算する。つまり、各リリース点を第1座標および第2座標として、無効領域76の座標範囲が再計算される。なお、図14(A)に示すように、有効領域の右上にタッチした後にスライドする変更操作がされると、リリース点の座標を第1座標として、有効領域の対角に位置する第2座標が算出される。なお、他の実施例では、手法で第2座標が算出されてもよい。
 続いて、ステップS167では、無効領域76の表示を変更する。つまり、上述のようにして算出された第1座標および第2座標に基づいて、無効領域76を表示する位置が変更される。そして、ステップS167の処理が終了すれば、補助機能処理も終了する。また、ステップS167の処理を実行するプロセッサ24は変更部として機能する。
 なお、ステップS57またはステップS163で“NO”であれば、ステップS65でグリッドキー68が操作されたか否かを判断し、“YES”であればグリッドを表示する。
 <第4実施例>
 第4実施例では、有効領域には補助キー66や、設定キー70を表示せずに、無効領域を設定できるようにする。なお、第4実施例の携帯電話機10は、第1実施例と略同じであるため、携帯電話機10の電気的な構成、RAM34のメモリマップおよび重複するフロー図などの説明は省略する。
 たとえば、図16(A)を参照して、機能表示領域62には、補助キー66および設定キー70は表示されない。そして、タッチパネル38に対して2回連続してタッチアンドリリースが行われれば、図16(B)に示すように無効領域76が設定される。なお、2回連続してタッチアンドリリースすることを、ここでは「ダブルタッチ」と言うことにする。
 次に、図16(B)を参照して、ダブルタッチによって無効領域76が設定された場合、有効量機には撮影キー64は表示されるが、解除キー72は表示されていない。この場合、使用者は、有効領域内で再びダブルタッチを行うことで、無効領域76を解除することができる。
 なお、第4実施例では、最初に設定される無効領域76の大きさは予め決められており、その大きさや表示位置を変更する場合、使用者は第3実施例で説明した変更操作を行えばよい。また、他の実施例では、有効領域内にバツ印が描かれた解除キー72が表示されてもよい。また、第4実施例では、メニューキー26bを長押しすることで、グリッドを表示することができる。
 <第5実施例>
 第5実施例では、図17に示すように、無効領域76a,76bは機能表示領域62の左右に分けて設定される。また、図示は省略するが、上下に分けて設定されてもいし、各辺のいずれか1つだけに設定されてもよい。また、第5実施例の携帯電話機10は、第1実施例と略同じであるため、携帯電話機10の電気的な構成、RAM34のメモリマップおよび重複するフロー図などの説明は省略する。
 なお、第1実施例-第5実施例などは、任意に組み合わせることが可能であり、具体的な組み合わせについては容易に想像できるので、詳細な説明は省略する。
 また、無効領域は、使用者がタッチ操作によって描いた図形に基づいて設定されてもよい。この場合、たとえば、描かれた図形を最小の大きさで囲むことができる長方形に基づいて、無効領域が設定される。また、各実施例の有効領域は、四角形で示されていたが、楕円形であってもよいし、その他の多角形であってもよい。
 また、携帯電話機10の通信方式はCDMA方式であるが、LTE(Long Term Evolution)方式、W-CDMA方式、GSM(登録商標)方式、TDMA方式、FDMA方式およびPHS方式などが採用されてもよい。
 また、本実施例で用いられた複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blu-ray Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、複数のプログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。
 さらに、本実施例は、携帯電話機10のみに限らず、スマートフォンおよびPDA(Personal Digital Assistant)に適用されてもよい。
 そして、本明細書中で挙げた、第1所定時間、第2所定時間、第1所定値、第2所定値および処理が繰り返される時間などの具体的な数値は、いずれも単なる一例であり、製品の仕様などの必要に応じて適宜変更可能である。
 本実施例は、被写体の画像を出力するカメラモジュール、カメラモジュールが出力する画像を表示する表示部、表示部の上に設けられるタッチパネル、タッチパネルのタッチ範囲内のタッチ操作を検出する検出部および検出部でタッチ操作を検出したとき撮影に関する所定処理を実行する実行部を有する、携帯端末であって、タッチ範囲の中に、タッチ操作を無効にする無効領域を設定する設定部を備える、携帯端末である。
 本実施例では、携帯端末(10:実施例において対応する部分を例示する参照符号。以下、同じ。)のカメラモジュール(40-44)は、イメージセンサ(42)などを含み、そのイメージセンサによって得られた被写体の画像を出力する。表示部(30)は、たとえば、カメラモジュールが出力する画像に基づく、スルー画像を表示する。また、表示部の上には、表示内容が視認できるように、無色透明なタッチパネルが設けられる。検出部は、そのタッチパネルのタッチ範囲内で行われたタッチ操作を検出する。そして、実行部(24,S17)は、タッチ操作がされると、フォーカス処理や撮影処理などの撮影に関する所定処理を実行する。そして、設定部(24,S49)は、たとえばタッチ範囲の中で、周囲を囲うように無効領域(74,76)を設定する。
 本実施例によれば、無効領域を表示しないようにした場合、画像のサイズを変化させずに表示できるため、表示部に表示される画像の視認性が悪くなるのを防ぐことができる。
 他の実施例は、設定部によって無効領域が設定されたとき、タッチ領域の中の無効領域以外の有効領域に、撮影に関する処理キーを表示するキー表示部をさらに備える。
 他の実施例では、キー表示部(24,S51)は、無効領域が設定されると、タッチ範囲の中の無効領域以外の有効領域に、上述した処理を実行するためのキー(64)を表示する。
 その他の実施例は、処理キーは、撮影キーを含み、撮影に関する所定処理は、撮影処理を含む。
 他の実施例およびその他の実施例によれば、有効領域内にキーが表示されるため、無効領域が設定されても携帯端末の操作性を保つことができる。また、使用者は、無効領域が設定された後に表示されるキーを見ることで、無効領域のおよその位置や範囲を把握することもできる。
 さらにその他の実施例は、タッチパネルに対するタッチ操作に基づいて第1座標を記憶する第1記憶部、および第1記憶部によって第1座標が記憶された後に、タッチパネルに対するタッチ操作に基づいて第2座標を記憶する第2記憶部をさらに備え、設定部は、第1記憶部によって記憶された第1座標と第2記憶部によって記憶された第2座標とに基づいて無効領域を設定する。
 さらにその他の実施例では、第1記憶部(24,S87)は一か所目にタッチされた位置を第1座標として記憶し、第2記憶部(24,S107)は二か所目にタッチされた位置を第2座標として記憶する。たとえば、設定部は、第1座標および第2座標が頂点となるように、無効領域を設定する。
 さらにその他の実施例によれば、使用者は、設定する無効領域の大きさを任意に決めることができる。
 他の実施例は、検出部によってタッチ操作が検出されてからそのタッチ操作が終了するまでの操作時間を計測する計測部、および計測部によって計測された操作時間に基づいて、第1座標と第2座標とを算出する算出部をさらに備え、設定部は、算出部によって算出された第1座標と第2座標とに基づいて無効領域を設定する。
 他の実施例では、計測部(24,S133,S135)は、たとえば、タッチパネルに指がタッチされてから離されるまでの時間を、操作時間として計測する。算出部(24,S139)は、一次関数などを利用して、第1座標および第2座標を算出する。そして、設定部は、算出された第1座標および第2座標に基づいて無効領域を設定する。
 他の実施例によれば、使用者は、タッチするだけで無効領域を設定でき、その大きさも任意に決めることができる。
 その他の実施例は、設定部によって設定された無効領域を表示する無効領域表示部をさらに備える。
 その他の実施例では、無効領域表示部(24,S161)は、設定された無効領域に、スルー画像が透過するように斜線を描画したり、透過性が高く設定された色を塗ったり、無効領域と有効領域との境に実線または破線などの境界線を表示したりすることで、使用者によって認識できるように表示する。
 その他の実施例によれば、使用者は無効領域の位置を明確に認識できるため、タッチパネルに対する誤操作をより減らすことができる。
 さらにその他の実施例は、無効領域表示部によって表示された無効領域を変更するタッチ操作がされたとき、その無効領域を変更する変更部をさらに備える。
 さらにその他の実施例では、変更部(24,S167)は、たとえば、無効領域の大きさや、表示される位置を変更するタッチ操作がされると、そのタッチ操作に基づいて無効領域の大きさや表示される位置を変更する。
 さらにその他の実施例によれば、使用者は、無効領域を設定した後に、変更するためのタッチ操作を行うことで、無効領域の大きさや表示位置を任意に変更することができる。
 他の実施例は、設定部は、無効領域を設定するためのタッチ操作がされたとき、無効領域を設定する。
 他の実施例では、たとえば表示部には無効領域を設定するための設定キー(70)が表示されている。そして、設定部は、その設定キーに対するタッチ操作に基づいて、無効領域を設定する。
 その他の実施例は、無効領域を解除するためのタッチ操作がされたとき、設定部によって設定された無効領域を解除する解除部をさらに備える。
 その他の実施例では、たとえば表示部には無効領域を解除するための解除キー(72)が表示されている。解除部(24,S61)は、その解除キーに対してタッチ操作がされると、無効領域を解除する。
 他の実施例およびその他の実施例によれば、使用者は、任意に、無効領域を設定したり、解除したりすることができる。
 さらにその他の実施例は、被写体の画像を出力するカメラモジュール(40-44)、カメラモジュールが出力する画像を表示する表示部(30)、表示部の上に設けられるタッチパネル(38)、タッチパネルのタッチ範囲内のタッチ操作を検出する検出部(36)および検出部でタッチ操作を検出したとき撮影に関する所定処理を実行する実行部(S17)を有する、携帯端末(10)の無効領域設定方法であって、タッチ範囲の中に、タッチ操作を無効にする無効領域(74,76)を設定する(S49)、無効領域設定方法である。
 さらにその他の実施例でも、無効領域を表示しないようにした場合、スルー画像のサイズを変化させずに表示できるため、表示部に表示される画像の視認性が悪くなるのを防ぐことができる。
 この発明が詳細に説明され図示されたが、それは単なる図解および一例として用いたものであり、限定であると解されるべきではないことは明らかであり、この発明の精神および範囲は添付されたクレームの文言によってのみ限定される。
 10  … 携帯電話機
 12  … アンテナ
 14  … 無線通信回路
 24  … プロセッサ
 26  … キー入力装置
 34  … RAM
 36  … タッチパネル制御回路
 38  … タッチパネル
 40  … カメラ制御回路
 42  … イメージセンサ
 44  … フォーカスレンズ

Claims (10)

  1.  被写体の画像を出力するカメラモジュール、前記カメラモジュールが出力する画像を表示する表示部、前記表示部の上に設けられるタッチパネル、前記タッチパネルのタッチ範囲内のタッチ操作を検出する検出部および前記検出部でタッチ操作を検出したとき撮影に関する所定処理を実行する実行部を有する、携帯端末であって、
     前記タッチ範囲の中に、タッチ操作を無効にする無効領域を設定する設定部を備える、携帯端末。
  2.  前記設定部によって無効領域が設定されたとき、前記タッチ領域の中の無効領域以外の有効領域に、撮影に関する処理キーを表示するキー表示部をさらに備える、請求項1記載の携帯端末。
  3.  前記処理キーは、撮影キーを含み、
     前記撮影に関する所定処理は、撮影処理を含む、請求項2記載の携帯端末。
  4.  前記タッチパネルに対するタッチ操作に基づいて第1座標を記憶する第1記憶部、および
     前記第1記憶部によって第1座標が記憶された後に、前記タッチパネルに対するタッチ操作に基づいて第2座標を記憶する第2記憶部をさらに備え、
     前記設定部は、前記第1記憶部によって記憶された第1座標と前記第2記憶部によって記憶された第2座標とに基づいて無効領域を設定する、請求項1記載の携帯端末。
  5.  前記検出部によってタッチ操作が検出されてからそのタッチ操作が終了するまでの操作時間を計測する計測部、および
     前記計測部によって計測された操作時間に基づいて、第1座標と第2座標とを算出する算出部をさらに備え、
     前記設定部は、前記算出部によって算出された前記第1座標と前記第2座標とに基づいて無効領域を設定する、請求項1記載の携帯端末。
  6.  前記設定部によって設定された無効領域を表示する無効領域表示部をさらに備える、請求項1記載の携帯端末。
  7.  前記無効領域表示部によって表示された無効領域を変更するタッチ操作がされたとき、その無効領域を変更する変更部をさらに備える、請求項6記載の携帯端末。
  8.  前記設定部は、無効領域を設定するためのタッチ操作がされたとき、無効領域を設定する、請求項1記載の携帯端末。
  9.  無効領域を解除するためのタッチ操作がされたとき、前記設定部によって設定された無効領域を解除する解除部をさらに備える、請求項1記載の携帯端末。
  10.  被写体の画像を出力するカメラモジュール、前記カメラモジュールが出力する画像を表示する表示部、前記表示部の上に設けられるタッチパネル、前記タッチパネルのタッチ範囲内のタッチ操作を検出する検出部および前記検出部でタッチ操作を検出したとき撮影に関する所定処理を実行する実行部を有する、携帯端末の無効領域設定方法であって、
     前記タッチ範囲の中に、タッチ操作を無効にする無効領域を設定する、無効領域設定方法。
PCT/JP2012/059969 2011-04-26 2012-04-12 携帯端末および無効領域設定方法 WO2012147521A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/114,169 US9106828B2 (en) 2011-04-26 2012-04-12 Mobile terminal and ineffective region setting method
US14/802,912 US9531949B2 (en) 2011-04-26 2015-07-17 Mobile terminal and ineffective region setting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-097918 2011-04-26
JP2011097918A JP5743679B2 (ja) 2011-04-26 2011-04-26 携帯端末、無効領域設定プログラムおよび無効領域設定方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/114,169 A-371-Of-International US9106828B2 (en) 2011-04-26 2012-04-12 Mobile terminal and ineffective region setting method
US14/802,912 Division US9531949B2 (en) 2011-04-26 2015-07-17 Mobile terminal and ineffective region setting method

Publications (1)

Publication Number Publication Date
WO2012147521A1 true WO2012147521A1 (ja) 2012-11-01

Family

ID=47072043

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059969 WO2012147521A1 (ja) 2011-04-26 2012-04-12 携帯端末および無効領域設定方法

Country Status (3)

Country Link
US (2) US9106828B2 (ja)
JP (1) JP5743679B2 (ja)
WO (1) WO2012147521A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014080995A1 (ja) * 2012-11-22 2014-05-30 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP2016197441A (ja) * 2016-07-08 2016-11-24 京セラ株式会社 電子機器、制御方法、及び制御プログラム
US9851844B2 (en) 2015-04-15 2017-12-26 Olympus Corporation Touch panel device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6137936B2 (ja) * 2013-05-10 2017-05-31 オリンパス株式会社 撮影機器,画像処理装置及び画像補正方法
JP5986957B2 (ja) * 2013-05-28 2016-09-06 京セラ株式会社 携帯端末、無効領域設定プログラムおよび無効領域設定方法
JP6608966B2 (ja) 2016-01-28 2019-11-20 マクセル株式会社 撮像装置
JP2016219026A (ja) * 2016-07-13 2016-12-22 京セラ株式会社 携帯端末、無効領域設定プログラムおよび無効領域設定方法
CN106569686B (zh) * 2016-10-12 2020-11-03 上海斐讯数据通信技术有限公司 滚动球控制截屏的方法及相关的智能设备
CN110771147A (zh) * 2018-08-01 2020-02-07 深圳市大疆创新科技有限公司 拍摄装置参数的调节方法、控制设备及拍摄系统
JP7218567B2 (ja) * 2018-12-21 2023-02-07 京セラドキュメントソリューションズ株式会社 情報入力装置
JP2022180973A (ja) * 2021-05-25 2022-12-07 株式会社リコー 情報処理装置、情報処理方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199145A (ja) * 2007-02-09 2008-08-28 Nikon Corp 電子機器
JP2010062706A (ja) * 2008-09-02 2010-03-18 Casio Comput Co Ltd 撮像装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4510713B2 (ja) 2005-07-21 2010-07-28 富士フイルム株式会社 デジタルカメラ
JP2009080683A (ja) * 2007-09-26 2009-04-16 Pioneer Electronic Corp タッチパネル型表示装置、その制御方法、プログラム及び記憶媒体
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
TWI361613B (en) * 2008-04-16 2012-04-01 Htc Corp Mobile electronic device, method for entering screen lock state and recording medium thereof
JP5243115B2 (ja) 2008-06-27 2013-07-24 京セラ株式会社 携帯端末および携帯端末制御プログラム
JP2010020608A (ja) * 2008-07-11 2010-01-28 Olympus Imaging Corp 電子装置、カメラ、オブジェクト選択方法、および、オブジェクト選択プログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US8134597B2 (en) 2008-12-05 2012-03-13 Sony Ericsson Mobile Communications Ab Camera system with touch focus and method
JP5131253B2 (ja) * 2009-07-13 2013-01-30 ソニー株式会社 画像表示装置、撮像装置、画像表示制御方法、プログラム
JP2011050038A (ja) 2009-07-27 2011-03-10 Sanyo Electric Co Ltd 画像再生装置及び撮像装置
JP4644747B1 (ja) * 2009-11-02 2011-03-02 パナソニック株式会社 情報処理装置、制御方法および制御プログラム
JP5306266B2 (ja) * 2010-03-15 2013-10-02 キヤノン株式会社 撮像装置及びその制御方法
US9411459B2 (en) * 2010-05-19 2016-08-09 Lg Electronics Inc. Mobile terminal and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199145A (ja) * 2007-02-09 2008-08-28 Nikon Corp 電子機器
JP2010062706A (ja) * 2008-09-02 2010-03-18 Casio Comput Co Ltd 撮像装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014080995A1 (ja) * 2012-11-22 2014-05-30 京セラ株式会社 電子機器、制御方法、及び制御プログラム
JP2014102796A (ja) * 2012-11-22 2014-06-05 Kyocera Corp 電子機器、制御方法、及び制御プログラム
US9766800B2 (en) 2012-11-22 2017-09-19 Kyocera Corporation Electronic device, control method, and control program
US9851844B2 (en) 2015-04-15 2017-12-26 Olympus Corporation Touch panel device
JP2016197441A (ja) * 2016-07-08 2016-11-24 京セラ株式会社 電子機器、制御方法、及び制御プログラム

Also Published As

Publication number Publication date
US9531949B2 (en) 2016-12-27
US20150326779A1 (en) 2015-11-12
US9106828B2 (en) 2015-08-11
JP2012231276A (ja) 2012-11-22
JP5743679B2 (ja) 2015-07-01
US20140049678A1 (en) 2014-02-20

Similar Documents

Publication Publication Date Title
JP5743679B2 (ja) 携帯端末、無効領域設定プログラムおよび無効領域設定方法
JP5848932B2 (ja) 携帯端末、フォルダ管理プログラムおよびフォルダ管理方法
KR101237809B1 (ko) 카메라 장치
JP5805503B2 (ja) 携帯端末、表示方向制御プログラムおよび表示方向制御方法
JP5791448B2 (ja) カメラ装置および携帯端末
JP5816571B2 (ja) 携帯端末、撮影キー制御プログラムおよび撮影キー制御方法
JP5587733B2 (ja) 携帯端末、ロック状態制御プログラムおよびロック状態制御方法
US11243660B2 (en) Method and device for displaying application, and storage medium
JP2014027386A (ja) 携帯端末、省電力制御プログラムおよび省電力制御方法
JP2013089212A (ja) 携帯端末および低感度領域設定プログラム
JP5973619B2 (ja) 携帯端末、無効領域設定プログラムおよび無効領域設定方法
JP6514061B2 (ja) 電子機器
JP2016219026A (ja) 携帯端末、無効領域設定プログラムおよび無効領域設定方法
JP5778481B2 (ja) 携帯端末、表示制御プログラムおよび表示制御方法
JP5280185B2 (ja) 携帯端末および電子カメラ
JP6010376B2 (ja) 電子機器,選択プログラムおよび方法
JP2014143565A (ja) 携帯電話機、制御プログラムおよび制御方法
JP2013041348A (ja) 携帯端末、補助情報表示プログラムおよび補助情報表示方法
JP5714466B2 (ja) 携帯端末、撮影制御プログラムおよび撮影制御方法
JP2014241602A (ja) 携帯端末、ロック状態制御プログラムおよびロック状態制御方法
JP6317397B2 (ja) 携帯端末、表示制御プログラムおよび表示制御方法
JP5951861B2 (ja) 携帯端末、表示制御プログラムおよび表示制御方法
JP2012247618A (ja) 携帯端末、実物大表示プログラムおよび実物大表示方法
JP2010258753A (ja) 携帯端末および投影プログラム
JP5931590B2 (ja) 通信端末、表示制御プログラムおよび表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12776155

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14114169

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12776155

Country of ref document: EP

Kind code of ref document: A1