JP2017021468A - Electronic apparatus, image processing method, and image processing program - Google Patents

Electronic apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2017021468A
JP2017021468A JP2015136895A JP2015136895A JP2017021468A JP 2017021468 A JP2017021468 A JP 2017021468A JP 2015136895 A JP2015136895 A JP 2015136895A JP 2015136895 A JP2015136895 A JP 2015136895A JP 2017021468 A JP2017021468 A JP 2017021468A
Authority
JP
Japan
Prior art keywords
image
inverted
subject
controller
predetermined condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015136895A
Other languages
Japanese (ja)
Inventor
須藤 智浩
Tomohiro Sudo
智浩 須藤
那由 能町
Nayu Nomachi
那由 能町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2015136895A priority Critical patent/JP2017021468A/en
Publication of JP2017021468A publication Critical patent/JP2017021468A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve convenience for a user in performing image reversal processing.SOLUTION: In one aspect, an electronic apparatus comprises a control part that extracts, from subjects included in an image, a subjects matching a predetermined condition as a predetermined subject in which a subject is not reversed as a mirror image, reverses an image from which an image of the predetermined subject is removed as a mirror image, and composes the image of the predetermined subject to a resulting reversed image. Thus, when the image is subjected to reversal processing, the electronic apparatus can avoid a situation where a user has difficulty in recognizing characters included in the image and an object indicating a direction, and improve convenience for the user in performing image reversal processing.SELECTED DRAWING: Figure 1

Description

本出願は、電子機器、画像加工方法及び画像加工プログラムに関する。   The present application relates to an electronic device, an image processing method, and an image processing program.

従来、カメラが搭載された電子機器において、カメラで撮影した画像を反転処理する技術がある。   2. Description of the Related Art Conventionally, there is a technique for reversing an image captured by a camera in an electronic device equipped with the camera.

特開2012−84975号公報JP 2012-84975 A

画像を反転処理した場合、反転処理された画像内の文字を認識したり、時計が示す時刻を認識したりすることが難しくなる。このように、画像を反転処理する際、反転処理させたくない被写体が存在する。   When the image is inverted, it is difficult to recognize characters in the image that has been inverted and to recognize the time indicated by the clock. As described above, when the image is reversed, there is a subject that is not desired to be reversed.

1つの態様に係る電子機器は、画像に含まれる被写体の中から、所定の条件を合致する被写体の画像を、鏡像として反転させない非反転画像として抽出し、前記非反転画像を除いた前記画像を鏡像として反転させた後、前記非反転画像を合成する制御部を備える。   An electronic apparatus according to one aspect extracts an image of a subject that satisfies a predetermined condition as a non-inverted image that is not inverted as a mirror image from subjects included in the image, and the image excluding the non-inverted image is extracted. A control unit for synthesizing the non-inverted image after being inverted as a mirror image is provided.

1つの態様に係る画像加工方法は、画像加工装置により実行される画像加工方法であって、画像を取得するステップと、画像に含まれる被写体の中から、所定の条件を合致する被写体の画像を、鏡像として反転させない非反転画像として抽出するステップと、前記非反転画像を除いた前記画像を鏡像として反転させた後、前記非反転画像を合成するステップとを含む。   An image processing method according to one aspect is an image processing method executed by an image processing apparatus, and includes acquiring an image, and selecting an image of a subject that satisfies a predetermined condition from among subjects included in the image. Extracting the non-inverted image as a mirror image and reversing the image excluding the non-inverted image as a mirror image, and then synthesizing the non-inverted image.

1つの態様に係る画像加工プログラムは、電子機器に、画像を取得するステップと、画像に含まれる被写体の中から、所定の条件を合致する被写体の画像を、鏡像として反転させない非反転画像として抽出するステップと、前記非反転画像を除いた前記画像を鏡像として反転させた後、前記非反転画像を合成するステップとを実行させる。   An image processing program according to an aspect includes a step of acquiring an image in an electronic device, and extracting, from the subjects included in the image, an image of a subject that satisfies a predetermined condition as a non-inverted image that is not inverted as a mirror image And a step of inverting the image excluding the non-inverted image as a mirror image and then synthesizing the non-inverted image.

図1は、実施形態に係るスマートフォンの機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the embodiment. 図2は、従来の方法で画像を反転処理した場合の画像の例を示す図である。FIG. 2 is a diagram illustrating an example of an image when the image is inverted by a conventional method. 図3は、実施形態に係る方法で画像を反転処理した場合の画像の例を示す図である。FIG. 3 is a diagram illustrating an example of an image when the image is inverted by the method according to the embodiment. 図4は、従来の方法で画像を反転処理した場合の画像の他の例を示す図である。FIG. 4 is a diagram illustrating another example of an image when the image is inverted by a conventional method. 図5は、実施形態に係る方法で画像を反転処理した場合の画像の他の例を示す図である。FIG. 5 is a diagram illustrating another example of an image when the image is inverted by the method according to the embodiment. 図6は、実施形態に係るスマートフォンの処理の流れを示すフローチャートである。FIG. 6 is a flowchart illustrating a process flow of the smartphone according to the embodiment. 図7は、実施形態に係るスマートフォンの処理の流れを示すフローチャートである。FIG. 7 is a flowchart illustrating a process flow of the smartphone according to the embodiment.

本出願に係る電子機器、画像加工方法及び画像加工プログラムを実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下の実施形態では、電子機器の一例としてスマートフォンについて説明する。   A plurality of embodiments for carrying out an electronic device, an image processing method, and an image processing program according to the present application will be described in detail with reference to the drawings. In the following embodiments, a smartphone will be described as an example of an electronic device.

図1を参照しつつ、実施形態に係るスマートフォンの機能構成の一例を説明する。図1は、実施形態に係るスマートフォンの機能構成を示すブロック図である。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略することがある。   An example of a functional configuration of the smartphone according to the embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the embodiment. In the following description, the same code | symbol may be attached | subjected about the same component. Furthermore, duplicate descriptions may be omitted.

図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、カメラ13と、コネクタ14と、加速度センサ15と、方位センサ16とを備える。   As shown in FIG. 1, the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10. A speaker 11, a camera 12, a camera 13, a connector 14, an acceleration sensor 15, and an orientation sensor 16.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重なって位置してもよいし、並んで位置してもよいし、離れて位置してもよい。ディスプレイ2Aとタッチスクリーン2Bとが重なって位置する場合、例えば、ディスプレイ2Aの1ないし複数の辺は、タッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A and the touch screen 2B may be positioned, for example, may be positioned side by side, or may be positioned apart from each other. When the display 2A and the touch screen 2B are positioned so as to overlap each other, for example, one or more sides of the display 2A may not be along any of the sides of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。ディスプレイ2Aは、表示部の一例である。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like. The screen including characters, images, symbols, graphics, and the like displayed on the display 2A includes a screen called a lock screen, a screen called a home screen, and an application screen displayed during execution of the application. The home screen may be called a desktop, a standby screen, an idle screen, a standard screen, an application list screen, or a launcher screen. The display 2A is an example of a display unit.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触又は近接を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触又は近接したときのタッチスクリーン2B上の位置を検出することができる。タッチスクリーン2Bが検出する複数の指、ペン、及びスタイラスペン等は、「指」と表記する場合がある。タッチスクリーン2Bが検出した指が接触又は近接した位置を「検出位置」と表記する場合がある。タッチスクリーン2Bは、タッチスクリーン2Bに対する指の接触を、検出位置とともにコントローラ10に通知する。タッチスクリーン2Bが行える動作を、タッチスクリーン2Bを有するタッチスクリーンディスプレイ2は実行できる。言い換えると、タッチスクリーン2Bが行う動作は、タッチスクリーンディスプレイ2が行ってもよい。   The touch screen 2B detects contact or proximity of a finger, pen, stylus pen, or the like to the touch screen 2B. The touch screen 2B can detect a position on the touch screen 2B when a plurality of fingers, pens, stylus pens, or the like are in contact with or close to the touch screen 2B. A plurality of fingers, pens, stylus pens, and the like detected by the touch screen 2B may be referred to as “finger”. A position where the finger detected by the touch screen 2B touches or approaches is sometimes referred to as a “detected position”. The touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B together with the detection position. The touch screen display 2 having the touch screen 2B can execute operations that can be performed by the touch screen 2B. In other words, the operation performed by the touch screen 2B may be performed by the touch screen display 2.

タッチスクリーン2Bは、検出方式として、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式を採用してよい。   The touch screen 2B may employ any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method as a detection method. .

コントローラ10は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。コントローラ10が行える動作を、コントローラ10を有するスマートフォン1は実行できる。言い換えると、コントローラ10が行う動作は、スマートフォン1が行ってもよい。ジェスチャは、指を用いて、タッチスクリーン2Bに対して行われる操作である。タッチスクリーン2Bに対して行われる操作は、タッチスクリーン2Bを有するタッチスクリーンディスプレイ2に行われてもよい。コントローラ10が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。   The controller 10 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The type of gesture is determined. The smartphone 1 having the controller 10 can execute operations that the controller 10 can perform. In other words, the operation performed by the controller 10 may be performed by the smartphone 1. The gesture is an operation performed on the touch screen 2B using a finger. The operation performed on the touch screen 2B may be performed on the touch screen display 2 having the touch screen 2B. The gestures that the controller 10 determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. It is not limited to.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。   The button 3 receives an operation input from the user. The number of buttons 3 may be singular or plural.

照度センサ4は、照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects illuminance. The illuminance is the value of the light beam incident on the unit area of the measurement surface of the illuminance sensor 4. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aと顔とが接近したことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. The proximity sensor 5 detects, for example, that the display 2A is close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格とが含まれる。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(登録商標)(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等が含まれる。WPANの通信規格には、例えば、ZigBee(登録商標)が含まれる。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards, for example. Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (registered trademark) (Worldwide InterPirality, PD). Examples thereof include GSM (registered trademark) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like. Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network). The WPAN communication standard includes, for example, ZigBee (registered trademark). The communication unit 6 may support one or more of the communication standards described above.

レシーバ7は、音出力部の一例である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、スマートフォン1にて再生される動画の音、音楽の音、及び通話時の相手の声を出力することができる。マイク8は、音入力部の一例である。マイク8は、利用者の声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 is an example of a sound output unit. The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The receiver 7 can output, for example, the sound of a moving image reproduced on the smartphone 1, the sound of music, and the voice of the other party during a call. The microphone 8 is an example of a sound input unit. The microphone 8 converts a user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラム(図示略)とが含まれる。アプリケーションの画面は、例えば、フォアグランドで実行される場合に、ディスプレイ2Aに表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び基本プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background, and a control program (not shown) that supports the operation of the application. The application screen is displayed on the display 2A when executed in the foreground, for example. The control program includes an OS, for example. The application and the basic program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、画像加工プログラム9A、カメラアプリケーション9B、電話アプリケーション9C、及び画像データ9Zなどを記憶する。   The storage 9 stores an image processing program 9A, a camera application 9B, a telephone application 9C, image data 9Z, and the like.

画像加工プログラム9Aは、画像に含まれる被写体の中から、所定の条件に合致する被写体の画像を、鏡像として反転させない非反転画像として抽出し、非反転画像を除いた画像を鏡像として反転させた後、非反転画像を合成する機能を提供できる。所定の条件は、被写体が文字情報である場合、及び被写体が方向を指し示す物体である場合を含む。方向を指し示す物体は、時計を含む。   The image processing program 9A extracts, from the subjects included in the image, a subject image that matches a predetermined condition as a non-inverted image that is not inverted as a mirror image, and inverts the image excluding the non-inverted image as a mirror image. Later, a function of synthesizing a non-inverted image can be provided. The predetermined condition includes a case where the subject is character information and a case where the subject is an object indicating a direction. The object indicating the direction includes a clock.

画像加工プログラム9Aは、鏡像として反転させない非反転画像を強調表示する機能を提供できる。   The image processing program 9A can provide a function of highlighting a non-inverted image that is not inverted as a mirror image.

画像加工プログラム9Aは、ディスプレイ2Aに表示される画像上で領域を指定する操作を受け付けた場合、上述の所定の条件に関係なく、当該領域に含まれる被写体の画像を非反転画像として抽出する機能を提供できる。   When the image processing program 9A receives an operation for designating a region on the image displayed on the display 2A, the image processing program 9A extracts a subject image included in the region as a non-inverted image regardless of the predetermined condition described above. Can provide.

カメラアプリケーション9Bは、静止画像及び動画像の撮影、編集並びに管理などを行うための機能を提供できる。電話アプリケーション9Cは、無線通信による通話のための通話機能を提供する。   The camera application 9B can provide a function for performing shooting, editing and management of still images and moving images. The telephone application 9C provides a telephone call function for a telephone call by wireless communication.

画像データ9Zは、静止画像のデータ、及び動画像のデータを含む。画像データ9Zは、自撮りにより撮影した静止画像のデータ、及び動画像のデータを含む。   The image data 9Z includes still image data and moving image data. The image data 9Z includes still image data and moving image data captured by self-photographing.

ストレージ9は、上記のプログラム及びデータの他、画像加工プログラム9Aなどにより提供される機能に基づいて実行される処理、及びカメラアプリケーション9Bなどにより提供される機能に基づいて実行される処理に用いられる各種データを記憶してよい。画像加工プログラム9Aなどにより提供される機能に基づいて実行される処理に用いられるデータは、画像から文字情報として抽出した情報との照合を行うためのパターンを含む。   The storage 9 is used for processing executed based on functions provided by the image processing program 9A and the like, and processing executed based on functions provided by the camera application 9B and the like, in addition to the above programs and data. Various data may be stored. Data used for processing executed based on functions provided by the image processing program 9A or the like includes a pattern for performing collation with information extracted as character information from the image.

コントローラ10は、演算処理装置を含む。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。コントローラ10は、制御部の一例である。   The controller 10 includes an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. It is not limited. The controller 10 controls various operations of the smartphone 1 to realize various functions. The controller 10 is an example of a control unit.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、及び方位センサ16を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. Examples of the detection unit include, but are not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the camera 13, the acceleration sensor 15, and the azimuth sensor 16.

コントローラ10は、画像加工プログラム9Aを実行することにより、画像に含まれる被写体の中から、所定の条件に合致する被写体の画像を、鏡像として反転させない非反転画像として抽出し、非反転画像を除いた画像を鏡像として反転させた後、非反転画像を合成する処理を実現する。所定の条件は、被写体が文字情報である場合、及び被写体が方向を指し示す物体である場合を含む。方向を指し示す物体は、時計を含む。   By executing the image processing program 9A, the controller 10 extracts, from the subjects included in the image, a subject image that meets a predetermined condition as a non-inverted image that is not inverted as a mirror image, and removes the non-inverted image. After the inverted image is inverted as a mirror image, a process for synthesizing the non-inverted image is realized. The predetermined condition includes a case where the subject is character information and a case where the subject is an object indicating a direction. The object indicating the direction includes a clock.

コントローラ10は、非反転画像として、画像に含まれる文字情報の画像を抽出する。文字情報の抽出方法について具体的に説明する。光学文字認識やデジタル文字認識を用いることによって、画像に文字情報以外の部分が含まれていても、手書き文字や印字された文字を光学的に読み取ることができる。そして、前もって記憶されたパターンとの照合により、文字を特定し、文字に変換することで、文字情報として抽出することができる。例えば、コントローラ10は、文字情報ではない大きな被写体Aの中に、文字情報である小さな被写体Bが含まれていた場合、非反転画像として、被写体Bの画像だけを抽出する。そして被写体Aを反転させた後で、被写体Bを反転された被写体A上に合成する。また、コントローラ10は、非反転画像として、画像に含まれる方向を指し示す物体の画像を抽出する。方向を指し示す物体の抽出方法について具体的に説明する。例えば、矢印の形状をなしているものを、方向を指し示す物体の画像として認識させるものである。特に、2または3つの矢印が交差していると認識した場合や、矢印が数字で囲まれている場合には、時計として認識させるものである。ここで矢印とは、先の尖った線状の被写体を矢印として画像認識するようにしておけばよいが、これに限らない。   The controller 10 extracts an image of character information included in the image as a non-inverted image. A method for extracting character information will be specifically described. By using optical character recognition or digital character recognition, handwritten characters and printed characters can be optically read even if the image includes portions other than character information. And it can extract as character information by specifying a character by collation with the pattern memorize | stored beforehand and converting it into a character. For example, when the small subject B that is character information is included in the large subject A that is not character information, the controller 10 extracts only the image of the subject B as a non-inverted image. Then, after the subject A is inverted, the subject B is synthesized on the inverted subject A. Further, the controller 10 extracts an image of an object indicating the direction included in the image as a non-inverted image. A method for extracting an object indicating a direction will be specifically described. For example, an object in the shape of an arrow is recognized as an image of an object pointing in the direction. In particular, when it is recognized that two or three arrows intersect, or when the arrows are surrounded by numerals, the clock is recognized. Here, the arrow is not limited to this, although it is sufficient to recognize the image of a pointed linear object as an arrow.

非反転画像を抽出した後、コントローラ10は、非反転画像を除外した画像を反転処理する。反転処理については、例えば、画像を構成する画素の並びを逆転させるなど、画像を左右反転(鏡像化)する従来技術をそのまま使用すればよい。   After extracting the non-inverted image, the controller 10 inverts the image excluding the non-inverted image. For the inversion process, for example, a conventional technique for reversing the image horizontally (mirroring) may be used as it is, for example, by reversing the arrangement of pixels constituting the image.

反転処理後、コントローラ10は、反転処理した画像に非反転画像を合成する。特に、非反転画像が文字情報である場合には、非反転画像を抽出した領域を白抜きにするか、あるいは黒抜きにしたうえで合成をすれば、反転する前に元々あった文字情報と、非反転画像の文字情報とが重なって複雑な画像になることを低減できる。   After the reversal process, the controller 10 combines the non-reversed image with the reversal-processed image. In particular, when the non-inverted image is character information, if the area from which the non-inverted image is extracted is whitened or blackened and then synthesized, the original character information before inversion is displayed. Therefore, it is possible to reduce the occurrence of a complicated image due to overlapping with the character information of the non-inverted image.

コントローラ10は、非反転画像を表示する際、反転処理された他の画像とは異なる態様で強調表示してもよい。   When displaying the non-inverted image, the controller 10 may highlight the image in a manner different from that of the other inverted image.

以下、図2から図5を参照しつつ、コントローラ10により実行されるスマートフォン1の制御の例を説明する。図2から図5は、実施形態に係るスマートフォンによる制御の例を示す図である。   Hereinafter, an example of the control of the smartphone 1 executed by the controller 10 will be described with reference to FIGS. 2 to 5. 2 to 5 are diagrams illustrating examples of control by the smartphone according to the embodiment.

図2は、従来の方法で画像を反転処理した場合の画像の例を示す図である。図3は、実施形態に係る方法で画像を反転処理した場合の画像の例を示す図である。スマートフォン1がユーザU1および文字情報OB1を含む画像を従来の方法で反転処理すると、図2に示すように、ユーザU1を含む画像および文字情報OB1を含む画像の双方が反転された状態でディスプレイ2Aに表示される。これに対して、スマートフォン1がユーザU1および文字情報OB1を含む画像を実施形態に係る方法で反転処理すると、図3に示すように、ユーザU1を含む画像のみが反転処理され、文字情報OB1を含む画像については反転されない状態でディスプレイ2Aに表示される。すなわち、スマートフォン1は、画像に含まれる被写体の中から、所定の条件に合致する文字情報OB1の画像を、鏡像として反転させない非反転画像として抽出する。続いて、スマートフォン1は、文字情報OB1の画像を除いた画像を反転処理した後、文字情報OB1の画像を合成する。このため、図3に示すように、文字情報OB1を含む画像については反転されない状態でディスプレイ2Aに表示される。   FIG. 2 is a diagram illustrating an example of an image when the image is inverted by a conventional method. FIG. 3 is a diagram illustrating an example of an image when the image is inverted by the method according to the embodiment. When the smartphone 1 reverses the image including the user U1 and the character information OB1 by the conventional method, the display 2A is displayed in a state where both the image including the user U1 and the image including the character information OB1 are reversed as illustrated in FIG. Is displayed. On the other hand, when the smartphone 1 inverts the image including the user U1 and the character information OB1 by the method according to the embodiment, only the image including the user U1 is inverted as illustrated in FIG. The included image is displayed on the display 2A without being inverted. That is, the smartphone 1 extracts an image of the character information OB1 that matches a predetermined condition from subjects included in the image as a non-inverted image that is not inverted as a mirror image. Subsequently, the smartphone 1 reverses the image excluding the image of the character information OB1, and then synthesizes the image of the character information OB1. Therefore, as shown in FIG. 3, the image including the character information OB1 is displayed on the display 2A without being inverted.

図4は、従来の方法で画像を反転処理した場合の画像の他の例を示す図である。図5は、実施形態に係る方法で画像を反転処理した場合の画像の他の例を示す図である。図4及び図5に示す例では、方向を指し示す物体が時計OB2の例である。スマートフォン1がユーザU1および時計OB2を含む画像を従来の方法で反転処理すると、図4に示すように、ユーザU1を含む画像および時計OB2を含む画像の双方が反転された状態でディスプレイ2Aに表示される。これに対して、スマートフォン1がユーザU1および時計OB2を含む画像を実施形態に係る方法で反転処理すると、図5に示すように、ユーザU1を含む画像のみが反転処理され、時計OB2を含む画像については反転されない状態でディスプレイ2Aに表示される。すなわち、スマートフォン1は、画像に含まれる被写体の中から、所定の条件に合致する時計OB2の画像を、鏡像として反転させない非反転画像として抽出する。続いて、スマートフォン1は、時計OB2の画像を除いた画像を反転処理した後、時計OB2の画像を合成する。このため、図5に示すように、時計OB2を含む画像については反転されない状態でディスプレイ2Aに表示される。   FIG. 4 is a diagram illustrating another example of an image when the image is inverted by a conventional method. FIG. 5 is a diagram illustrating another example of an image when the image is inverted by the method according to the embodiment. In the example shown in FIGS. 4 and 5, the object indicating the direction is an example of the watch OB2. When the smartphone 1 reverses the image including the user U1 and the clock OB2 by the conventional method, as shown in FIG. 4, the image including the user U1 and the image including the clock OB2 are displayed on the display 2A in a reversed state. Is done. In contrast, when the smartphone 1 inverts an image including the user U1 and the clock OB2 by the method according to the embodiment, as illustrated in FIG. 5, only the image including the user U1 is inverted and an image including the clock OB2 is displayed. Is displayed on the display 2A without being inverted. That is, the smartphone 1 extracts an image of the clock OB2 that matches a predetermined condition from subjects included in the image as a non-inverted image that is not inverted as a mirror image. Subsequently, the smartphone 1 inverts the image excluding the image of the clock OB2, and then synthesizes the image of the clock OB2. For this reason, as shown in FIG. 5, the image including the clock OB2 is displayed on the display 2A without being inverted.

なお、コントローラ10は、ディスプレイ2Aに表示した画像上で、当該画像内の領域を指定する操作を、タッチスクリーン2Bを介して利用者から受け付けると、当該領域に含まれる被写体の画像を非反転画像として抽出することもできる。このとき、コントローラ10は、利用者により指定された領域に含まれる被写体が、文字情報であるか、あるいは方向を指し示す物体であるかに関わらず、非反転画像として抽出する。この場合、コントローラ10は、例えば、文字情報の画像、方向を指し示す物体の画像、及び利用者により指定された領域に含まれる被写体の画像を、所定の条件に合致する被写体の画像として抽出する。   When the controller 10 receives an operation for designating a region in the image from the user via the touch screen 2B on the image displayed on the display 2A, the controller 10 displays the image of the subject included in the region as a non-inverted image. Can also be extracted. At this time, the controller 10 extracts the non-inverted image regardless of whether the subject included in the region designated by the user is character information or an object indicating the direction. In this case, the controller 10 extracts, for example, an image of character information, an image of an object indicating a direction, and an image of a subject included in an area designated by the user as an image of a subject that meets a predetermined condition.

スピーカ11は、音出力部を含む。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力してもよい。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。   The speaker 11 includes a sound output unit. The speaker 11 outputs the sound signal transmitted from the controller 10 as sound. The speaker 11 may output a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other.

カメラ12及びカメラ13は、撮影した画像を電気信号へ変換できる。カメラ12は、ディスプレイ2Aに面している物体を撮影するインカメラでもよい。カメラ13は、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラでもよい。カメラ12及びカメラ13は、インカメラ及びアウトカメラを切り換えて利用可能なカメラユニットとして、機能的及び物理的に統合された状態でスマートフォン1に実装されてもよい。   The camera 12 and the camera 13 can convert the captured image into an electrical signal. The camera 12 may be an in-camera that captures an object facing the display 2A. The camera 13 may be an out camera that captures an object facing the opposite surface of the display 2A. The camera 12 and the camera 13 may be mounted on the smartphone 1 in a functionally and physically integrated state as a camera unit that can be used by switching between the in-camera and the out-camera.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及びスマートフォンを含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), and an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, but are not limited to, an external storage, a speaker, and a smartphone, for example.

加速度センサ15は、スマートフォン1に作用する加速度の方向及び大きさを検出する。方位センサ16は、例えば、地磁気の向きを検出し、地磁気の向きに基づいて、スマートフォン1の向き(方位)を検出する。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects, for example, the direction of geomagnetism, and detects the direction (azimuth) of the smartphone 1 based on the direction of geomagnetism.

スマートフォン1は、上記の各機能部の他、GPS受信機、及びバイブレータを備えてもよい。GPS受信機は、GPS衛星からの所定の周波数帯の電波信号を受信できる。GPS受信機は、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。GPS受信機は、スマートフォン1の現在位置の演算処理をサポートする。バイブレータは、スマートフォン1の一部又は全体を振動させる。バイブレータは、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バッテリなど、スマートフォン1の機能を維持するために当然に用いられる機能部、及びスマートフォン1の制御を実現するために当然に用いられる制御部は、スマートフォン1に実装される。   The smartphone 1 may include a GPS receiver and a vibrator in addition to the above functional units. The GPS receiver can receive a radio signal of a predetermined frequency band from a GPS satellite. The GPS receiver demodulates the received radio signal and sends the processed signal to the controller 10. The GPS receiver supports the calculation processing of the current position of the smartphone 1. The vibrator vibrates a part or the whole of the smartphone 1. The vibrator includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. A functional unit that is naturally used to maintain the function of the smartphone 1, such as a battery, and a control unit that is naturally used to realize control of the smartphone 1 are mounted on the smartphone 1.

図6及び図7を参照しつつ、実施形態に係るスマートフォン1により実行される処理の流れを説明する。図6及び図7は、実施形態に係るスマートフォンの処理の流れを示すフローチャートである。図6及び図7に示す処理は、コントローラ10が、ストレージ9に記憶されている画像加工プログラム9Aを実行することにより実現される。   The flow of processing executed by the smartphone 1 according to the embodiment will be described with reference to FIGS. 6 and 7. 6 and 7 are flowcharts showing a process flow of the smartphone according to the embodiment. The processing shown in FIGS. 6 and 7 is realized by the controller 10 executing the image processing program 9A stored in the storage 9.

図6は、画像内から所定の条件に合致する被写体の画像を非反転画像として抽出する処理の例である。図6に示すように、コントローラ10は、ストレージ9から画像を読込む(ステップS101)。   FIG. 6 shows an example of processing for extracting an image of a subject that matches a predetermined condition from the image as a non-inverted image. As shown in FIG. 6, the controller 10 reads an image from the storage 9 (step S101).

続いて、コントローラ10は、ステップS101で読み込んだ画像内に所定の条件に合致する被写体があるかを判定する(ステップS102)。所定の条件は、被写体が文字情報である場合、及び被写体が方向を指し示す物体である場合を含む。   Subsequently, the controller 10 determines whether there is a subject that meets a predetermined condition in the image read in step S101 (step S102). The predetermined condition includes a case where the subject is character information and a case where the subject is an object indicating a direction.

コントローラ10は、判定の結果、画像内に所定の条件に合致する被写体がある場合(ステップS102,Yes)、所定の条件に合致する被写体の画像を非反転画像として抽出する(ステップS103)。   As a result of the determination, if there is a subject that matches a predetermined condition in the image (Yes in step S102), the controller 10 extracts an image of the subject that matches the predetermined condition as a non-inverted image (step S103).

続いて、コントローラ10は、非反転画像を除いた画像を反転処理する(ステップS104)。続いて、コントローラ10は、ステップS104で反転処理した画像に対して、ステップS103で抽出した非反転画像を合成処理して(ステップS105)、図6に示す処理を終了する。   Subsequently, the controller 10 inverts the image excluding the non-inverted image (step S104). Subsequently, the controller 10 synthesizes the non-inverted image extracted in step S103 with respect to the image inverted in step S104 (step S105), and ends the process shown in FIG.

上記のステップS102において、コントローラ10は、判定の結果、画像内に所定の条件に合致する被写体がない場合(ステップS102,No)、ステップS101で読み込んだ画像をそのまま反転処理して(ステップS106)、図6に示す処理を終了する。   In the above step S102, if the result of determination is that there is no subject matching the predetermined condition in the image (step S102, No), the controller 10 inverts the image read in step S101 as it is (step S106). Then, the process shown in FIG.

図7は、画像内から所定の条件に合致する被写体の画像を非反転画像として抽出するだけでなく、利用者が非反転画像を選択する処理の例である。図7に示すように、コントローラ10は、ストレージ9から画像を読込み(ステップS201)、ディスプレイ2Aに表示する(ステップS202)。   FIG. 7 shows an example of processing in which a user selects a non-inverted image as well as extracts a subject image that matches a predetermined condition from the image as a non-inverted image. As shown in FIG. 7, the controller 10 reads an image from the storage 9 (step S201) and displays it on the display 2A (step S202).

続いて、コントローラ10は、ディスプレイ2Aに表示した画像上で、反転させない被写体の選択操作の受付を実行する(ステップS203)。   Subsequently, the controller 10 receives a selection operation of a subject that is not reversed on the image displayed on the display 2A (step S203).

続いて、コントローラ10は、選択操作が完了されたかを判定する(ステップS204)。例えば、コントローラ10は、選択操作を完了する利用者の操作を受け付けた場合、選択操作が完了されたものと判定する。   Subsequently, the controller 10 determines whether the selection operation is completed (step S204). For example, the controller 10 determines that the selection operation has been completed when the operation of the user who completes the selection operation is received.

コントローラ10は、判定の結果、選択操作が完了されていない場合(ステップS204,No)、上記のステップS203に戻る。これとは反対に、コントローラ10は、判定の結果、選択操作が完了された場合(ステップS204,Yes)、画像内に所定の条件に合致する被写体があるかを判定する(ステップS205)。所定の条件は、被写体が文字情報である場合、被写体が方向を指し示す物体である場合、及び利用者により指定された領域に含まれる被写体である場合を含む。   If the result of determination is that the selection operation has not been completed (No at Step S204), the controller 10 returns to Step S203 above. On the contrary, if the selection operation is completed as a result of the determination (Yes in Step S204), the controller 10 determines whether there is a subject that meets a predetermined condition in the image (Step S205). The predetermined condition includes a case where the subject is character information, a case where the subject is an object indicating a direction, and a case where the subject is included in an area designated by the user.

コントローラ10は、判定の結果、画像内に所定の条件に合致する被写体がある場合(ステップS205,Yes)、所定の条件に合致する被写体の画像を非反転画像として抽出する(ステップS206)。   As a result of the determination, if there is a subject that matches the predetermined condition in the image (Yes in step S205), the controller 10 extracts an image of the subject that matches the predetermined condition as a non-inverted image (step S206).

続いて、コントローラ10は、非反転画像を除いた画像を反転処理する(ステップS207)。続いて、コントローラ10は、ステップS207で反転処理した画像に対して、ステップS206で抽出した非反転画像を合成処理して(ステップS208)、図7に示す処理を終了する。   Subsequently, the controller 10 inverts the image excluding the non-inverted image (step S207). Subsequently, the controller 10 synthesizes the non-inverted image extracted in step S206 with respect to the image inverted in step S207 (step S208), and ends the process shown in FIG.

上記のステップS205において、コントローラ10は、判定の結果、画像内に所定の条件に合致する被写体がない場合(ステップS205,No)、ステップS201で読み込んだ画像をそのまま反転処理して(ステップS209)、図7に示す処理を終了する。すなわち、コントローラ10は、画像内に文字情報がない場合、方向を指し示す物体が無い場合、利用者により指定された領域に含まれる被写体がない場合、ステップS201で読み込んだ画像をそのまま反転処理する。   In the above step S205, if there is no subject that matches the predetermined condition in the image as a result of the determination (step S205, No), the controller 10 inverts the image read in step S201 as it is (step S209). Then, the process shown in FIG. That is, if there is no character information in the image, there is no object indicating the direction, or there is no subject included in the area specified by the user, the controller 10 inverts the image read in step S201 as it is.

図6及び図7に示す処理は、ストレージ9又はコネクタ14を介して接続された記憶媒体などから読み込んだ画像を再生する際に実行する場合に限定されない。例えば、カメラ12などにより撮影された画像をストレージ9に保存する際に実行してもよい。   The processing illustrated in FIGS. 6 and 7 is not limited to the case where the processing is performed when an image read from a storage medium connected via the storage 9 or the connector 14 is reproduced. For example, it may be executed when an image captured by the camera 12 or the like is stored in the storage 9.

上記実施形態において、スマートフォン1は、画像に含まれる被写体の中から、所定の条件に合致する被写体の画像を、鏡像として反転させない非反転画像として抽出し、非反転画像を除いた画像を鏡像として反転させた後、非反転画像を合成する。このため、実施形態によれば、画像を反転処理した場合、画像に含まれる文字および方向を指し示す物体の認識が利用者にとって困難になる状況を回避でき、画像を反転処理する際の利用者の利便性を向上できる。   In the above-described embodiment, the smartphone 1 extracts, from the subjects included in the image, a subject image that matches a predetermined condition as a non-inverted image that is not inverted as a mirror image, and an image excluding the non-inverted image as a mirror image After inversion, a non-inverted image is synthesized. Therefore, according to the embodiment, when the image is inverted, it is possible to avoid a situation in which it is difficult for the user to recognize an object indicating the character and the direction included in the image, and the user's Convenience can be improved.

上記の実施形態で説明した処理は、携帯電話、スマートフォン、タブレットなど、画像を撮影する機能、画像を再生する機能、及び画像を保存する機能を有する電子機器に適用できる。   The processing described in the above embodiment can be applied to an electronic device having a function of capturing an image, a function of reproducing an image, and a function of storing an image, such as a mobile phone, a smartphone, and a tablet.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

1 スマートフォン
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 画像加工プログラム
9B カメラアプリケーション
9C 電話アプリケーション
9Z 画像データ
10 コントローラ
11 スピーカ
12 カメラ
13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
DESCRIPTION OF SYMBOLS 1 Smart phone 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Image processing program 9B Camera application 9C Telephone application 9Z Image data 10 Controller 11 Speaker 12 Camera 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor

Claims (8)

画像に含まれる被写体の中から、所定の条件に合致する被写体の画像を、鏡像として反転させない非反転画像として抽出し、
前記非反転画像を除いた前記画像を鏡像として反転させた後、前記非反転画像を合成する制御部を備える電子機器。
An image of a subject that meets a predetermined condition is extracted from the subjects included in the image as a non-inverted image that is not inverted as a mirror image.
An electronic apparatus comprising: a control unit that synthesizes the non-inverted image after inverting the image excluding the non-inverted image as a mirror image.
前記制御部は、前記被写体が文字情報である場合、当該文字情報の画像を前記非反転画像として抽出する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein when the subject is character information, the control unit extracts an image of the character information as the non-inverted image. 前記制御部は、前記被写体が方向を指し示す物体である場合、当該物体の画像を前記非反転画像として抽出する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein when the subject is an object indicating a direction, the control unit extracts an image of the object as the non-inverted image. 前記方向を指し示す物体は、時計を含む請求項3に記載の電子機器。   The electronic device according to claim 3, wherein the object indicating the direction includes a clock. 前記制御部は、前記所定の被写体を強調表示する請求項1から4のいずれか1つに記載の電子機器。   The electronic device according to claim 1, wherein the control unit highlights the predetermined subject. 画像を表示する表示部をさらに備え、
前記制御部は、
前記表示部に表示される画像上で領域を指定する操作を受け付けた場合、前記所定の条件に関係なく、前記領域に含まれる被写体の画像を前記非反転画像として抽出する請求項1から5のいずれか1つに記載の電子機器。
A display unit for displaying an image;
The controller is
The image of the subject included in the region is extracted as the non-inverted image regardless of the predetermined condition when an operation for designating the region on the image displayed on the display unit is received. The electronic device as described in any one.
電子機器により実行される画像加工方法であって、
画像を取得するステップと、
画像に含まれる被写体の中から、所定の条件に合致する被写体の画像を、鏡像として反転させない非反転画像として抽出するステップと、
前記非反転画像を除いた前記画像を鏡像として反転させた後、前記非反転画像を合成するステップと
を含む画像加工方法。
An image processing method executed by an electronic device,
Acquiring an image;
Extracting a subject image that matches a predetermined condition from the subjects included in the image as a non-inverted image that is not inverted as a mirror image;
An image processing method comprising: inverting the image excluding the non-inverted image as a mirror image and then synthesizing the non-inverted image.
電子機器に、
画像を取得するステップと、
画像に含まれる被写体の中から、所定の条件に合致する被写体の画像を、鏡像として反転させない非反転画像として抽出するステップと、
前記非反転画像を除いた前記画像を鏡像として反転させた後、前記非反転画像を合成するステップと
を実行させる画像加工プログラム。
Electronic equipment,
Acquiring an image;
Extracting a subject image that matches a predetermined condition from the subjects included in the image as a non-inverted image that is not inverted as a mirror image;
An image processing program that executes the step of combining the non-inverted image after inverting the image excluding the non-inverted image as a mirror image.
JP2015136895A 2015-07-08 2015-07-08 Electronic apparatus, image processing method, and image processing program Pending JP2017021468A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015136895A JP2017021468A (en) 2015-07-08 2015-07-08 Electronic apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015136895A JP2017021468A (en) 2015-07-08 2015-07-08 Electronic apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2017021468A true JP2017021468A (en) 2017-01-26

Family

ID=57888276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015136895A Pending JP2017021468A (en) 2015-07-08 2015-07-08 Electronic apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2017021468A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020514813A (en) * 2017-03-10 2020-05-21 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting method and terminal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223402A (en) * 1995-02-15 1996-08-30 Canon Inc Processing method for image and image processing unit
JP2004355494A (en) * 2003-05-30 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Display interface method and device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223402A (en) * 1995-02-15 1996-08-30 Canon Inc Processing method for image and image processing unit
JP2004355494A (en) * 2003-05-30 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Display interface method and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020514813A (en) * 2017-03-10 2020-05-21 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting method and terminal
US11233940B2 (en) 2017-03-10 2022-01-25 Huawei Technologies Co., Ltd. Photographing method and terminal
JP7005646B2 (en) 2017-03-10 2022-02-10 華為技術有限公司 Shooting method and terminal

Similar Documents

Publication Publication Date Title
JP2014102796A (en) Electronic device, control method, and control program
US10241601B2 (en) Mobile electronic device, control method, and non-transitory storage medium that stores control program
JP6215128B2 (en) Portable electronic device, control method and control program
JP2016213762A (en) Portable apparatus, control method and control program
JP2017195444A (en) Portable electronic device, security control method, and security control program
KR102125525B1 (en) Method for processing image and electronic device thereof
US10051189B2 (en) Electronic device, control method, and control program
JP6247203B2 (en) Portable electronic device and control method
JP6261546B2 (en) Portable device, control method and control program
JP2017021468A (en) Electronic apparatus, image processing method, and image processing program
JP6062484B2 (en) Electronic device, control method, and control program
JP6182572B2 (en) Portable device, control method and control program
JP6416598B2 (en) Portable terminal and control method
JP2016136351A (en) Electronic apparatus and control method
US20150363100A1 (en) Mobile electronic device, control method, and storage medium
JP6464046B2 (en) Electronic device, control method, and control program
US20170160811A1 (en) Electronic device, control method, and storage medium
US10574809B2 (en) Mobile phone
JP6399944B2 (en) Electronic device, control method, and control program
JP6661452B2 (en) Portable device, control method and control program
JP6495149B2 (en) Electronic device, control method, and control program
JP6152334B2 (en) Electronic device, control method, and control program
JP6087685B2 (en) Portable electronic device, control method and control program
JP2016103105A (en) Portable terminal and control method therefor
JP2017004107A (en) Communication device, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015