JP7230396B2 - 画像処理プログラムおよび画像処理装置、並びにプログラム - Google Patents

画像処理プログラムおよび画像処理装置、並びにプログラム Download PDF

Info

Publication number
JP7230396B2
JP7230396B2 JP2018179445A JP2018179445A JP7230396B2 JP 7230396 B2 JP7230396 B2 JP 7230396B2 JP 2018179445 A JP2018179445 A JP 2018179445A JP 2018179445 A JP2018179445 A JP 2018179445A JP 7230396 B2 JP7230396 B2 JP 7230396B2
Authority
JP
Japan
Prior art keywords
image
processing
subject
similar
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018179445A
Other languages
English (en)
Other versions
JP2020052578A (ja
Inventor
友紀 中盛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018179445A priority Critical patent/JP7230396B2/ja
Priority to CN201910279589.6A priority patent/CN110944118B/zh
Priority to US16/572,576 priority patent/US11449701B2/en
Publication of JP2020052578A publication Critical patent/JP2020052578A/ja
Application granted granted Critical
Publication of JP7230396B2 publication Critical patent/JP7230396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • H04N1/00251Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector with an apparatus for taking photographic images, e.g. a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本開示の技術は、画像処理プログラムおよび画像処理装置、並びにプログラムに関する。
特許文献1には、被写体を広角で静止画撮影する撮影用カメラと、撮影用カメラで撮影した撮影画像から被写体のマスクパターンを生成するとともに、撮影画像から肌色部分を抽出して、マスクパターン中に肌色部分が存在するマスクパターンを人物パターンとして検出する人物検出部と、撮影画像から、人物検出部が人物パターンとして検出したマスクパターンに対応する部分を切り出して、切り出した部分画像を所定の画像サイズに拡大する自動トリミング部と、を備えた自動写真館が開示されている。
特許文献2には、画像を取得するステップと、画像に関する属性を識別するステップと、画像に関する属性ごとに取得した画像を分類するステップと、ユーザからの画像選択操作に基づいて取得した画像の中から所望の画像を選択するステップと、画像に関する属性ごとに選択した画像を分類するステップと、画像に関する属性ごとに分類された取得した画像および選択した画像のうち、同一の属性に対応する取得した画像の数と選択した画像の数とを比較するステップと、取得した画像の数と選択した画像の数とを比較した結果に応じ、属性ごとに分類された選択した画像の重要度を示す指標を作成し、指標を選択した画像に付与するステップと、を含む画像重要度判定方法が開示されている。
特開2008-061114号公報 特開2009-223764号公報
カメラ機能を有する携帯端末等で撮影した画像を、通信回線上のサーバに送信することが行われている。具体的には、コンビニエンスストア等に設置された印刷機に画像を印刷させるために、通信回線上の印刷管理サーバに画像を送信する、または、画像共有に特化したソーシャルネットワーキングサービスに画像を投稿するために、通信回線上の画像受付サーバに画像を送信する、等である。こうした場合、画像の送信に先立ち、画像に対して、トリミング、画像エフェクト、余白付与といった画像処理が実行されることがある。
ところで、最近は、写真フイルムの時代と比べて、手軽に何枚も画像を撮影することが可能となった。このため、撮影した画像の中には、構図が類似した画像が多く含まれる場合がある。以下、構図が類似する等の関係を有する画像のことを類似画像と略記する。類似画像は、例えば、同じ撮影場所で時間を置かずに画角を少し変えて撮影した画像や、連写機能を用いて撮影した画像等である。
こうした類似画像の中から、通信回線上のサーバに送信する画像を選択する場合を考える。この場合、類似画像のいくつかに対して画像処理が実行される。この際、利用者は、多くの類似画像の各々に対して同じような画像処理を指示する必要がある。
本開示の技術は、類似画像の各々に対して処理を指示する場合と比較して、類似画像の処理に掛かる利用者の作業負担を軽減することが可能な画像処理プログラムおよび画像処理装置、並びにプログラムを提供することを目的とする。
上記目的を達成するために、請求項1に記載の発明は、画像に対して画像処理する処理部と、利用者が指示した第1処理の対象画像について、前記第1処理を前記処理部に処理させる制御を行い、かつ、前記対象画像と類似した類似画像について、前記第1処理に応じた第2処理を前記処理部に処理させる制御を行う制御部として、コンピュータを機能させる画像処理プログラムである。
請求項2に記載の発明は、前記類似画像を抽出する画像抽出部として、前記コンピュータを機能させる請求項1に記載の画像処理プログラムである。
請求項3に記載の発明は、前記対象画像から主要被写体を抽出する被写体抽出部として、前記コンピュータを機能させ、前記画像抽出部は、前記主要被写体を含む画像を、前記類似画像として抽出する請求項2に記載の画像処理プログラムである。
請求項4に記載の発明は、前記画像抽出部は、前記対象画像と撮影日時が連続し、かつ前記主要被写体を含む画像であって、前記主要被写体を含まない画像で前後が区切られる一連の画像を、前記類似画像として抽出する請求項3に記載の画像処理プログラムである。
請求項5に記載の発明は、前記被写体抽出部は、前記第1処理前後の前記対象画像、および前記利用者の前記第1処理に関わる指示の操作履歴のうちの少なくとも1つに基づいて、前記主要被写体を抽出する請求項3または4に記載の画像処理プログラムである。
請求項6に記載の発明は、前記被写体抽出部は、前記第1処理後の前記対象画像における被写体の写り具合、および前記操作履歴における前記対象画像への前記利用者の操作点と前記被写体との距離のうちの少なくとも1つに基づいて、前記主要被写体を抽出する請求項5に記載の画像処理プログラムである。
請求項7に記載の発明は、前記写り具合は、前記第1処理後の前記対象画像に含まれる前記被写体の割合、部位、および位置のうちの少なくとも1つである請求項6に記載の画像処理プログラムである。
請求項8に記載の発明は、前記第2処理は、前記第2処理後の前記類似画像の前記主要被写体が、前記第1処理後の前記対象画像の前記主要被写体の位置および大きさのうちの少なくとも1つを受け継いだものとなる処理である請求項3ないし7のいずれか1項に記載の画像処理プログラムである。
請求項9に記載の発明は、前記被写体抽出部は、前記対象画像から、除外すべき被写体である除外対象被写体を抽出し、前記第2処理は、前記除外対象被写体を前記類似画像から除外する処理を含む請求項3ないし8のいずれか1項に記載の画像処理プログラムである。
請求項10に記載の発明は、前記画像抽出部は、前記対象画像との撮影間隔に基づいて、前記類似画像を抽出する請求項2ないし9のいずれか1項に記載の画像処理プログラムである。
請求項11に記載の発明は、前記画像抽出部は、前記対象画像と撮影日時が連続する画像であって、直後の画像との前記撮影間隔が設定間隔よりも離れている画像と、直前の画像との前記撮影間隔が前記設定間隔よりも離れている画像とで前後が区切られる一連の画像を、前記類似画像として抽出する請求項10に記載の画像処理プログラムである。
請求項12に記載の発明は、前記利用者による前記類似画像の指定を受け付ける受付部として、前記コンピュータを機能させる請求項1ないし11のいずれか1項に記載の画像処理プログラムである。
請求項13に記載の発明は、前記第1処理の実行履歴を管理する管理部として、前記コンピュータを機能させ、前記制御部は、前記実行履歴を参照して、前記第1処理が既に実行された前記類似画像については、前記第2処理を前記処理部に処理させない請求項1ないし12のいずれか1項に記載の画像処理プログラムである。
請求項14に記載の発明は、画像に対して画像処理する処理部と、利用者が指示した第1処理の対象画像について、前記第1処理を前記処理部に処理させる制御を行い、かつ、前記対象画像と類似した類似画像について、前記第1処理に応じた第2処理を前記処理部に処理させる制御を行う制御部と、を備える画像処理装置である。
請求項15に記載の発明は、対象画像に対する利用者の操作から前記対象画像と類似した類似画像を抽出する機能と、前記操作に応じた前記対象画像に対する処理と同様の処理を前記類似画像に対して実行する機能と、を実現させるためのプログラムである。
請求項1、14、15に記載の発明によれば、類似画像の各々に対して処理を指示する場合と比較して、類似画像の処理に掛かる利用者の作業負担を軽減することが可能となる。
請求項2に記載の発明によれば、利用者が類似画像を抽出する手間を省くことができる。
請求項3に記載の発明によれば、対象画像に構図がより類似した画像を、類似画像として抽出することができる。
請求項4に記載の発明によれば、類似画像として適切な画像を抽出する確率を高めることができる。
請求項5に記載の発明によれば、適切な主要被写体を抽出する確率を高めることができる。
請求項6に記載の発明によれば、第1処理に込めた利用者の意図を汲んだ主要被写体を抽出することができる。
請求項7に記載の発明によれば、抽出した主要被写体の尤もらしさを高めることができる。
請求項8に記載の発明によれば、対象画像と類似画像を容易に比較することができる。
請求項9に記載の発明によれば、第1処理に込めた利用者の意図を汲んだ第2処理を実行することができる。
請求項10に記載の発明によれば、撮影日時の情報で類似画像を抽出することができる。
請求項11に記載の発明によれば、類似画像として適切な画像を抽出する確率を高めることができる。
請求項12に記載の発明によれば、利用者が視認して判断した画像を類似画像とすることができる。
請求項13に記載の発明によれば、利用者により指示された第1処理の内容を尊重することができる。
画像管理システムを示す図である。 対象画像について第1処理を実行し、対象画像と類似した類似画像について、第1処理に応じた第2処理を実行する様子を示す図である。 携帯端末を構成するコンピュータを示すブロック図である。 携帯端末のCPUの処理部を示すブロック図である。 画像表示画面を示す図であり、図5Aは画像の一覧が表示された画像表示画面を、図5Bは対象画像が拡大表示された画像表示画面をそれぞれ示す。 トリミングの指示の例を示す図である。 画像エフェクトの例を示す図である。 余白付与の例を示す図である。 余白付与の別の例を示す図である。 実行履歴情報の内容を示す図である。 被写体抽出部による主要被写体の抽出手順の概要を示したフローチャートである。 被写体抽出部により主要被写体を抽出する様子を示す図である。 第1処理後の対象画像に含まれる被写体の位置に基づくスコアリングの例を示す図である。 画像抽出部により類似画像を抽出する様子を示す図である。 第2処理後の類似画像の主要被写体が、第1処理後の対象画像の主要被写体の位置および大きさを受け継いだものとなる第2処理を実行する様子を示す図であり、図15Aは第1処理の様子、図15Bは第2処理の様子をそれぞれ示す。 携帯端末の処理手順を示すフローチャートである。 被写体抽出部により主要被写体と除外対象被写体を抽出する様子を示す図である。 除外対象被写体を類似画像から除外する処理を、第2処理として実行する様子を示す図であり、図18Aは第1処理の様子、図18Bは第2処理の様子をそれぞれ示す。 対象画像との撮影間隔に基づいて、類似画像を抽出する様子を示す図である。 受付部において、利用者による類似画像の指定を受け付ける様子を示す図である。 第1処理が既に実行された類似画像については、第2処理を処理させない第5実施形態を示す図である。
[第1実施形態]
図1において、画像管理システム2は、携帯端末10と画像管理サーバ11とを備える。携帯端末10は、画像管理システム2の利用者12が操作する端末であり、例えばスマートフォン等のタブレット型のパーソナルコンピュータで構成される。携帯端末10は、画像処理装置の一例である。画像管理サーバ11はサーバコンピュータで構成される。携帯端末10および画像管理サーバ11は、インターネットあるいは公衆通信回線等のWAN(Wide Area Network)13で相互に通信可能に接続されている。
携帯端末10および画像管理サーバ11は、タブレット型のパーソナルコンピュータ、サーバコンピュータ、ワークステーションといったコンピュータをベースとする。携帯端末10および画像管理サーバ11は、これらのコンピュータに、オペレーティングシステム等の制御プログラムや、各種アプリケーションプログラムをインストールして構成される。
携帯端末10はカメラ機能を有し、画像を撮影することが可能である。携帯端末10で撮影された画像は、WAN13を経由して画像管理サーバ11に送信され、画像管理サーバ11で携帯端末10毎(利用者12毎)に記憶管理される。また、画像管理サーバ11に記憶された画像は、WAN13を経由して携帯端末10に送信され、携帯端末10で閲覧したり画像処理したりすることができる。
WAN13上には、画像管理サーバ11以外にも、携帯端末10から画像が送信される様々なサーバが存在する。例えば、コンビニエンスストア等に設置された印刷機に印刷させるための画像を管理する印刷管理サーバや、画像共有に特化したソーシャルネットワーキングサービスに投稿する画像を受け付ける画像受付サーバ等である。利用者12は、こうしたサーバに画像を送信する際に、携帯端末10にて、画像に対して、トリミング、画像エフェクト、余白付与といった画像処理を実行することがある。以下、利用者12が指示した画像処理を第1処理といい、第1処理の対象の画像を対象画像20Tと表現する。
図2に示すように、携帯端末10では、対象画像20Tについて実行した第1処理に応じた第2処理を、対象画像20Tと類似した類似画像20Sに対して実行する。ここで、符号20T-Bは第1処理前の対象画像20Tを、符号20T-Aは第1処理後の対象画像20Tを、それぞれ表す。同様に、符号20S-Bは第2処理前の類似画像20Sを、符号20S-Aは第2処理後の類似画像20Sを、それぞれ表す。以下では、特に区別する必要がない場合は、添え字の「-B」、「-A」を記載しない。なお、類似しているとは、図2のように対象画像20Tと類似画像20Sとで同じ被写体を含む態様のほか、後述するような撮影日時が連続する態様や、画像間で一定の撮影間隔を有する態様や、その他利用者12が指定する態様等を含む。
図2では、対象画像20T-Bに第1処理として画像エフェクトAが実行され、対象画像20T-Aとされた場合を例示している。この場合、類似画像20S-Bに対しても、第2処理として画像エフェクトAが実行され、類似画像20S-Aとされる。
図3において、携帯端末10を構成するコンピュータは、ストレージデバイス30、メモリ31、CPU(Central Processing Unit)32、通信部33、ディスプレイ34、およびタッチパネル35を備えている。これらはデータバス36を介して相互接続されている。
ストレージデバイス30は、携帯端末10を構成するコンピュータに内蔵、またはネットワークを通じて接続されたハードディスクドライブである。ストレージデバイス30には、オペレーティングシステム等の制御プログラムや各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。
メモリ31は、CPU32が処理を実行するためのワークメモリである。CPU32は、ストレージデバイス30に記憶されたプログラムをメモリ31へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。
通信部33は、WAN13を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ34は各種画面を表示する。各種画面にはGUI(Graphical User Interface)による操作機能が備えられる。携帯端末10を構成するコンピュータは、各種画面を通じて、タッチパネル35からの操作指示の入力を受け付ける。
図4において、携帯端末10のストレージデバイス30には、アプリケーションプログラムとして画像処理プログラム40が記憶されている。画像処理プログラム40は、携帯端末10を構成するコンピュータを、画像処理装置として機能させるためのアプリケーションプログラムである。ストレージデバイス30には、画像処理プログラム40の他に、実行履歴情報41が記憶されている。
画像処理プログラム40が起動されると、携帯端末10のCPU32は、メモリ31等と協働して、画像送受信部45、受付部46、処理部47、制御部48、管理部49、被写体抽出部50、および画像抽出部51として機能する。
画像送受信部45は、画像を画像管理サーバ11に送信する。また、画像送受信部45は、携帯端末10に対応する画像の送信要求を画像管理サーバ11に送信する。そして、送信要求に応じて画像管理サーバ11から送信された画像を受信する。画像送受信部45は、受信した画像を制御部48に出力する。
受付部46は、タッチパネル35を介した様々な操作指示を受け付ける。操作指示には、対象画像20Tの選択指示や第1処理に関わる指示が含まれる。受付部46は、受け付けた操作指示を制御部48に出力する。
処理部47は、制御部48から対象画像20T(第1処理前の対象画像20T-B)および第1処理に関わる指示を受け取る。そして、対象画像20Tに対して第1処理を実行する。また、処理部47は、画像抽出部51から類似画像20Sを受け取る。そして、類似画像20Sに対して第2処理を実行する。処理部47は、第1処理後の対象画像20T-A、第2処理後の類似画像20S-Aを制御部48に出力する。また、処理部47は、第1処理前の対象画像20T-B、第1処理後の対象画像20T-A、および第1処理に関わる指示を管理部49に出力する。
制御部48は、受付部46からの操作指示の内容に基づく制御を行う。具体的には、制御部48は、対象画像20Tの選択指示を受付部46で受け付けた場合、選択指示された対象画像20Tを処理部47および被写体抽出部50に出力する。また、第1処理に関わる指示を受付部46で受け付けた場合、制御部48は、第1処理に関わる指示を処理部47に出力し、対象画像20Tについて、指示に応じた第1処理を処理部47に処理させる制御を行う。また、制御部48は、類似画像20Sについて、第2処理を処理部47に処理させる制御を行う。
制御部48は、画像送受信部45からの画像を画像抽出部51に出力する。さらに、制御部48は、画像送受信部45からの画像や対象画像20Tをディスプレイ34に表示する制御を行う(図5参照)。
管理部49は、第1処理の実行履歴の情報である実行履歴情報41を管理する。具体的には、管理部49は、処理部47からの対象画像20T-B、20T-A、および第1処理に関わる指示を、実行履歴情報41としてストレージデバイス30に書き込む。また、管理部49は、処理部47、被写体抽出部50からの要求に応じて、実行履歴情報41をストレージデバイス30から読み出し、読み出した実行履歴情報41を、処理部47、被写体抽出部50に出力する。
処理部47は、第2処理を実行する際に、管理部49に実行履歴情報41の出力を要求する。処理部47は、この要求に応じて管理部49から出力された実行履歴情報41の第1処理の内容に応じた第2処理を実行する。
被写体抽出部50は、制御部48からの対象画像20Tに対して周知の被写体認識技術を適用し、対象画像20Tに写る被写体を抽出する。また、被写体抽出部50は、制御部48からの対象画像20Tに対応する実行履歴情報41の出力を管理部49に要求する。そして、この要求に応じて管理部49から出力された実行履歴情報41に基づいて、抽出した被写体からさらに主要被写体MS(図12等参照)を抽出する。主要被写体MSは、対象画像20Tの撮影者が主に撮影したかったであろうと推察される被写体である。被写体抽出部50は、抽出した主要被写体MSの情報を画像抽出部51に出力する。
画像抽出部51は、類似画像20Sを抽出する。具体的には、画像抽出部51は、制御部48からの画像のうち、被写体抽出部50において抽出した主要被写体MSを含む画像を、類似画像20Sとして抽出する。画像抽出部51は、抽出した類似画像20Sを処理部47に出力する。
図5は、制御部48により携帯端末10のディスプレイ34に表示される画像表示画面60の例である。制御部48は、まず、図5Aに示すように、画像送受信部45からの画像のサムネイルを縦横にタイル状に並べた一覧61を画像表示画面60に表示させる。一覧61を構成する画像は、当該携帯端末10に対応する画像であって、画像管理サーバ11に記憶されている全ての画像である。また、一覧61を構成する画像は、例えば、上から下、かつ左から右に向かうにつれて撮影日時が新しい。画像表示画面60に一度に表示しきれない画像は、タッチパネル35に対するスワイプ操作またはフリック操作でスクロール表示される。スワイプ操作は、タッチパネル35に触れた状態で指を一定方向に滑らせる操作である。フリック操作は、タッチパネル35上で指を一定方向に滑らせつつタッチパネル35から指を離す操作である。
ハッチングで示すように、タッチパネル35を指で軽く叩くタップ操作により、一覧61の中の1つの画像が選択される。この操作指示が、対象画像20Tの選択指示に相当する。対象画像20Tの選択指示がなされた場合、図5Bに示すように、制御部48は、一覧61の表示を対象画像20Tの拡大表示に切り替える。そして、トリミングボタン62、エフェクトボタン63、余白付与ボタン64を画像表示画面60の下部に配する。
トリミングボタン62が選択された場合、制御部48は、受付部46を介して、第1処理に関わる指示として、対象画像20Tに対するトリミングの指示を受ける。同様に、エフェクトボタン63、余白付与ボタン64が選択された場合、制御部48は、受付部46を介して、第1処理に関わる指示として、対象画像20Tに対する画像エフェクトの指示、余白付与の指示を受ける。なお、符号65は、対象画像20Tの拡大表示を一覧61の表示に戻すためのキャンセルボタンである。
図6に示すように、トリミングの指示は、画像の移動指示と、画像の拡大指示および縮小指示とを含む。移動指示は、予め設定された画像の表示枠70に対して、画像を移動させる指示である。拡大指示および縮小指示は、表示枠70に表示する画像の大きさを変更する指示である。
移動指示は、スワイプ操作またはフリック操作で行われる。画像は、スワイプ操作またはフリック操作で最初に指が置かれた点を始点として、指の移動方向に移動する。移動指示の場合、スワイプ操作またはフリック操作で最初に指が置かれた点が、操作点に相当する。
拡大指示はピンチアウト操作、縮小指示はピンチイン操作でそれぞれ行われる。ピンチアウト操作は、タッチパネル35に2本の指(人差し指と親指)を閉じた状態で置き、その状態で2本の指の間を広げる操作である。ピンチイン操作は、ピンチアウト操作とは逆に、タッチパネル35に2本の指を離した状態で置き、その状態で2本の指の間を狭める操作である。拡大指示において、画像は、ピンチアウト操作で最初に2本の指が置かれた点を中心に拡大される。拡大指示の場合、ピンチアウト操作で最初に2本の指が置かれた点が、操作点に相当する。また、縮小指示において、画像は、ピンチイン操作で最初に2本の指が置かれた点を結んだ直線の中点を中心に縮小される。縮小指示の場合、ピンチイン操作で最初に2本の指が置かれた点を結んだ直線の中点が、操作点に相当する。
なお、ピンチアウト操作で最初に2本の指が置かれた点は、厳密には2点であるが、例えば、これら2点を含む最小半径の円形領域の中心を、ピンチアウト操作で最初に2本の指が置かれた点とする。また、操作点は、縮小指示におけるピンチイン操作で最初に2本の指が置かれた点を結んだ直線の中点を操作点としたように、利用者12の指が実際に置かれた点に限らない。さらに、縮小指示におけるピンチイン操作で最後に2本の指が合わさった点(ピンポイン操作の終了点)を操作点としてもよい。
図6では、まず、対象画像20T-Bに対して左下に移動指示をし、次いで拡大指示をした後、最終的なトリミングの指示をした例を示している。なお、図6はあくまでも一例であり、これに限定されない。図6の例とは逆に、拡大指示をした後に移動指示をしてもよいし、移動指示、拡大指示、縮小指示を何度か繰り返してもよい。移動指示をせず、拡大指示のみで済ませてもよい。
図7は、エフェクトボタン63を選択して指示可能な画像エフェクトの例である。画像エフェクトには、モノクローム、セピア、ビビット等がある。モノクロームは、画像をモノクロにする画像エフェクトである。セピアは、画像をセピア色にする画像エフェクトである。ビビットは、画像の明度と彩度を高める画像エフェクトである。
図8および図9は、余白付与の例である。図8は、正方形状の対象画像20T-Bの左右に余白75を付与し、L判等の長方形状の対象画像20T-Aとする例である。対して図9は、長方形状の対象画像20T-Bの左右に余白75を付与し、正方形状の対象画像20T-Aとする例である。
これらトリミング、画像エフェクト、余白付与は、それぞれ単独で実行することもできるし、複合して実行することもできる。例えば、画像エフェクトとしてビビットを実行した後に、余白付与を実行することもできる。
図10において、実行履歴情報41は、画像を識別する画像ID(Identification Data)毎に、対象画像20Tと、第1処理に関わる指示の操作履歴との組を登録したものである。対象画像20Tには、第1処理前の対象画像20T-Bと、第1処理後の対象画像20T-Aとが登録される。操作履歴には、第1処理に関わる指示の内容と、対象画像20T-Bへの利用者12の操作点とが登録される。
図10では、拡大指示を伴うトリミングの指示が行われた対象画像20T(画像ID:IM0010)を例示している。この場合、操作履歴の内容には、拡大指示を伴うトリミングである旨が登録される。また、図示は省略したが、操作履歴の内容には、対象画像20T-Bを基準にした対象画像20T-Aの拡大率も登録される。移動指示を伴うトリミングの指示であった場合は、対象画像20T-Bを基準にした対象画像20T-Aの移動方向、移動量も、操作履歴の内容に登録される。操作履歴の操作点には、前述のように、ピンチアウト操作で最初に2本の指が置かれた点の座標が登録される。この座標は、例えば画像の左端の画素を原点とし、画像の横方向をX軸、縦方向をY軸としたXY座標で表される。
また、図10では、画像エフェクトBの指示が行われた対象画像20T(画像ID:IM0050)、および正方形状の対象画像20T-Bを長方形状の対象画像20T-Aにする余白付与の指示が行われた対象画像20T(画像ID:IM0070)も例示している。これら画像エフェクトおよび余白付与の場合は、操作履歴の操作点には何も登録されない。
図11は、第1処理としてトリミングが実行された場合の、被写体抽出部50による主要被写体MSの抽出手順の概要を示したフローチャートである。被写体抽出部50は、まず、管理部49からの実行履歴情報41に登録された対象画像20T-B、対象画像20T-Aのそれぞれに写る被写体を抽出する(ステップST10)。次いで、被写体抽出部50は、対象画像20T-Aの被写体の写り具合、および操作点と被写体との距離を検出する(ステップST11)。
続いて、被写体抽出部50は、ステップST11で検出した被写体の写り具合、および操作点と被写体との距離に基づいて、ステップST10で抽出した被写体に対してスコアリングする(ステップST12)。スコアリング後、被写体抽出部50は、最高スコアの被写体を主要被写体MSとして抽出する(ステップST13)。
図12は、被写体抽出部50により主要被写体MSを抽出する様子を示す。図12では、肩車されている少女S1、少女S1を肩車している男性S2、歩いてくる女性S3、歩き去る男性S4、歩いてくる男性S5が被写体として写った対象画像20T-Bを例示している。また、少女S1の顔付近の符号OPで示す点を操作点として、少女S1と男性S2を拡大してトリミングを実行した対象画像20T-Aを例示している。
この場合、被写体抽出部50は、対象画像20T-Bから、少女S1、男性S2、女性S3、男性S4、男性S5を被写体として抽出する。また、対象画像20T-Aから、少女S1、男性S2、女性S3、男性S5を被写体として抽出する。次いで、被写体抽出部50は、各被写体S1~S5に対して、対象画像20T-Aの写り具合、および操作点との距離を検出する。
表80に示すように、写り具合は、対象画像20T-Aに含まれる被写体の割合、部位、および位置である。割合は、対象画像20T-A全体に占める被写体の面積率の大小である。部位は、例えば対象画像20T-Aへの顔の写り込みの有無である。位置は、例えば対象画像20T-Aを破線のように縦に3等分した場合の中央領域への存在有無である。
続いて、被写体抽出部50は、検出した被写体の写り具合、および操作点と被写体との距離に基づいて、各被写体S1~S5に対してスコアリングする。具体的には、割合に関しては、割合が最大である少女S1に最高点の15点をつけ、割合が2番目に大きい男性S2に次点の10点をつける。そして、割合が3番目に大きい男性S5には5点をつけ、割合が最小である女性S3には0点をつける。また、対象画像20T-Bには写っていたが、対象画像20T-Aには写っていない男性S4には-5点をつける。部位に関しては、対象画像20T-Aに顔が写っている少女S1と男性S2に5点をつけ、顔が写っていない他の被写体S3~S5には0点をつける。位置に関しては、対象画像20T-Aの中央領域に存在する少女S1と男性S2には5点をつけ、中央領域に存在しない他の被写体S3、S5には0点をつける。
また、操作点と被写体との距離に関しては、操作点との距離が最短である少女S1に最高点の15点をつけ、操作点との距離が2番目に短い男性S2に次点の10点をつける。そして、操作点との距離が3番目に短い男性S5には5点をつけ、操作点との距離が4番目に短い女性S3には0点をつける。また、操作点との距離が最長である男性S4には-5点をつける。なお、ここで示したスコアリングの仕方は、あくまでも一例である。
被写体抽出部50は、表81に示すように、上記のようにしてスコアリングしたスコアを合計する。合計したスコアは、少女S1が40点と最高で、男性S2が30点、女性S3が0点、男性S4が-10点、男性S5が10点である。このため、被写体抽出部50は、最高スコアである少女S1を主要被写体MSとして抽出する。
なお、被写体抽出部50は、対象画像20T-A、および第1処理に関わる指示の操作履歴に基づいて、主要被写体MSを抽出しているが、これに限定されない。被写体抽出部50は、対象画像20T-A、および第1処理に関わる指示の操作履歴のうちの少なくとも1つに基づいて、主要被写体MSを抽出するものであればよい。同様に、被写体抽出部50は、対象画像20T-Aにおける被写体の写り具合、および操作点と被写体との距離に基づいて、主要被写体MSを抽出しているが、これに限定されない。被写体抽出部50は、対象画像20T-Aにおける被写体の写り具合、および操作点と被写体との距離のうちの少なくとも1つに基づいて、主要被写体MSを抽出するものであればよい。また、写り具合は、上記で例示した対象画像20T-Aに含まれる被写体の割合、部位、および位置のうちの少なくとも1つでよい。さらに、写り具合として、対象画像20T-Aに含まれる被写体の鮮鋭度を加えてもよい。
対象画像20T-Aに含まれる被写体の部位に基づくスコアリングとしては、対象画像20T-Aへの顔の写り込みの有無に代えて、対象画像20T-Aへの全身の写り込みの有無に基づいてスコアリングしてもよい。また、対象画像20T-Aに含まれる被写体の位置に基づくスコアリングとしては、図13に示すように、対象画像20T-Aを破線のように縦横に3等分、計9等分し、9等分した各領域のスコアを、記載の数字のように設定してもよい。
図11および図12は、第1処理としてトリミングが実行された場合の主要被写体MSの抽出例である。対して、第1処理として、画像エフェクトおよび余白付与が実行された場合、被写体抽出部50は、対象画像20T-Bの被写体の写り具合に基づいて、主要被写体MSを抽出する。写り具合は、上記と同様に、対象画像20T-Bに含まれる被写体の割合、部位、および位置のうちの少なくとも1つである。被写体抽出部50は、上記と同様に対象画像20T-Bの被写体を抽出して、抽出した被写体に対してスコアリングを行い、最高スコアの被写体を主要被写体MSとして抽出する。
なお、画像エフェクトの場合は、画像エフェクトを実行する被写体を利用者12が指定し、利用者12が指定した被写体にのみ画像エフェクトを実行する態様もある。こうした態様の場合は、利用者12が画像エフェクトを実行するとして指定した被写体の点を操作点とし、この操作点との距離に基づくスコアリングをしてもよい。
図14に示すように、画像抽出部51は、対象画像20Tと撮影日時が連続し、かつ被写体抽出部50において抽出した主要被写体MSを含む画像であって、主要被写体MSを含まない画像20Nで前後が区切られる一連の画像を、類似画像20Sとして抽出する。
図14では、画像ID:IM0068、撮影日時:2018.07.09、11:10:29で、主要被写体MSとして幼女が写った対象画像20Tを例示している。この場合、画像ID:IM0060、撮影日時:2018.07.09、10:22:48で、赤ちゃんが写った画像が、主要被写体MSを含まない画像20Nである。同じく、画像ID:IM0069、撮影日時:2018.07.11、14:15:18で、樹木が写った画像が、主要被写体MSを含まない画像20Nである。そして、主要被写体MSである幼女が写り、これら画像ID:IM0060の画像20Nと画像ID:IM0069の画像20Nとで前後が区切られる、画像ID:IM0061~IM0067の画像が、画像抽出部51において類似画像20Sとして抽出される。
図15に示すように、第1処理としてトリミングが実行された場合、処理部47は、第2処理後の類似画像20S-Aの主要被写体MSが、第1処理後の対象画像20T-Aの主要被写体MSの位置および大きさを受け継いだものとなる第2処理を実行する。
図15Aでは、赤ちゃんを乗せた乳母車を押している女性、街路樹、および自動車が被写体として写る対象画像20T-Bを例示している。そして、第1処理として、主に女性の上半身の部分を拡大してトリミングを実行し、女性が主要被写体MSとして抽出された対象画像20T-Aを例示している。また、図15Bでは、対象画像20T-Bよりも乳母車と女性が自動車に近付き、かつ対象画像20T-Bよりもズームインした類似画像20S-Bを例示している。この場合、処理部47は、主要被写体MSである女性の位置および大きさが、対象画像20T-Aに写る女性の位置および大きさを受け継いだものとなるように第2処理を実行し、類似画像20S-Aを作成する。このため、類似画像20S-Aは、街路樹や自動車の位置は対象画像20T-Aとは若干異なるものの、主要被写体MSである女性の位置および大きさは、対象画像20T-Aと略同じものとなる。
図15は、第1処理としてトリミングが実行された場合の第2処理の例である。対して、第1処理として、画像エフェクトおよび余白付与が実行された場合は、処理部47は、第2処理として、第1処理と同じ画像エフェクトおよび余白付与を実行する。利用者12が指定した被写体にのみ画像エフェクトを実行する態様の場合は、第2処理も、利用者12が指定した被写体にのみ画像エフェクトを実行する。
第1処理前の対象画像20T-Bと第1処理後の対象画像20T-Aは、関連付けて画像管理サーバ11で記憶管理される。同じく、第2処理前の類似画像20S-Bと第2処理後の類似画像20S-Aは、関連付けて画像管理サーバ11で記憶管理される。
以下、上記構成による作用について、図16のフローチャートを参照して説明する。まず、画像処理プログラム40が起動されると(ステップST100でYES)、図4で示したように、CPU32が、画像送受信部45、受付部46、処理部47、制御部48、管理部49、被写体抽出部50、および画像抽出部51として機能し、携帯端末10を構成するコンピュータが、画像処理装置として機能する。
画像送受信部45によって、携帯端末10に対応する画像の送信要求が画像管理サーバ11に送信される。そして、送信要求に応じて画像管理サーバ11から送信された画像が、画像送受信部45で受信される(ステップST110)。画像は、画像送受信部45から制御部48に出力される。
画像は、図5Aで示したように、制御部48によって、画像表示画面60に一覧61として表示される(ステップST120)。一覧61の中の1つの画像が選択された場合、すなわち、対象画像20Tの選択指示が受付部46で受け付けられた場合、図5Bで示したように、制御部48によって、画像表示画面60は対象画像20Tの拡大表示に切り替えられる。この状態でトリミングボタン62、エフェクトボタン63、余白付与ボタン64のいずれかが選択され、第1処理に関わる指示が受付部46で受け付けられた場合(ステップST130でYES)、制御部48によって、対象画像20T-Bについて、第1処理を処理部47に処理させる制御が行われる(ステップST140)。そして、管理部49によって、図10で示した実行履歴情報41がストレージデバイス30に書き込まれる(ステップST150)。
次いで、被写体抽出部50において主要被写体MSが抽出される(ステップST160)。第1処理としてトリミングが実行された場合は、図11および図12で示したように、対象画像20T-Aの被写体の写り具合、および対象画像20T-Bへの利用者12の操作点と被写体との距離に基づいて、主要被写体MSが抽出される。主要被写体MSの情報は、被写体抽出部50から画像抽出部51に出力される。
被写体抽出部50において、第1処理前の対象画像20T-B、第1処理後の対象画像20T-A、および利用者12の第1処理に関わる指示の操作履歴のうちの少なくとも1つに基づいて、主要被写体MSを抽出する。より具体的には、被写体抽出部50において、第1処理後の対象画像20T-Aにおける被写体の写り具合、および操作履歴における対象画像20T-Bへの利用者12の操作点と被写体との距離のうちの少なくとも1つに基づいて、主要被写体MSを抽出する。したがって、適切な主要被写体MSを抽出する確率が高まる。
第1処理前の対象画像20T-Bでは中央領域に存在していた被写体でも、第2処理としてトリミングした後の対象画像20T-Aに中央領域に存在しているとは限らない。場合によっては対象画像20T-Aには存在しない場合もある。したがって、第1処理後の対象画像20T-Aに基づいて主要被写体MSを抽出することは、第1処理に込めた利用者12の意図をより汲むことになるので、特に意味がある。
写り具合は、第1処理後の対象画像20T-Aに含まれる被写体の割合、部位、および位置のうちの少なくとも1つである。したがって、例えば、割合が大きく、顔が写っていて、かつ画像の中央領域に存在する被写体を主要被写体MSとして抽出することができ、抽出した主要被写体MSの尤もらしさが高まる。
続いて、図14で示したように、画像抽出部51において類似画像20Sが抽出される(ステップST170)。具体的には、対象画像20Tと撮影日時が連続し、かつ主要被写体MSを含む画像であって、主要被写体MSを含まない画像20Nで前後が区切られる一連の画像が、類似画像20Sとして抽出される。類似画像20Sは、画像抽出部51から処理部47に出力される。
画像抽出部51において類似画像20Sを抽出するので、利用者12が類似画像20Sを抽出する手間が掛からない。
被写体抽出部50において主要被写体MSを抽出し、画像抽出部51において、主要被写体MSを含む画像を、類似画像20Sとして抽出する。したがって、対象画像20Tに構図がより類似した画像が、類似画像20Sとして抽出される。
画像抽出部51において、対象画像20Tと撮影日時が連続し、かつ主要被写体MSを含む画像であって、主要被写体を含まない画像20Nで前後が区切られる一連の画像を、類似画像として抽出する。したがって、類似画像20Sとして適切な画像を抽出する確率が高まる。
制御部48によって、類似画像20S-Bについて、第2処理を処理部47に処理させる制御が行われる(ステップST180)。第1処理としてトリミングが実行された場合は、図15で示したように、処理部47によって、第2処理後の類似画像20S-Aの主要被写体MSが、第1処理後の対象画像20T-Aの主要被写体MSの位置および大きさを受け継いだものとなる第2処理が実行される。
第2処理は、第2処理後の類似画像20S-Aの主要被写体MSが、第1処理後の対象画像20T-Aの主要被写体MSの位置および大きさを受け継いだものとなる画像処理である。したがって、類似画像20S-Aの主要被写体MSが、対象画像20T-Aの主要被写体MSと略同じ写り具合となり、対象画像20T-Aと類似画像20S-A、および類似画像20S-A同士の比較がしやすくなる。
ステップST120からステップST180までの処理は、画像処理プログラム40が終了されるまで(ステップST190でYES)、繰り返し続けられる。
制御部48は、利用者12が指示した第1処理の対象画像20Tについて、第1処理を処理部47に処理させる制御を行う。かつ制御部48は、対象画像20Tと類似した類似画像20Sについて、第1処理に応じた第2処理を処理部47に処理させる制御を行う。利用者12は、対象画像20Tに対して第1処理に関わる指示を行うだけで、第1処理に応じた第2処理が類似画像20Sに実行されるので、類似画像20Sの各々に対して処理を指示する場合と比較して、類似画像20Sの画像処理に掛かる利用者12の作業負担が軽減される。このため、対象画像20Tを含む類似画像20Sの中からの、印刷管理サーバや画像受付サーバ等に送信する画像の選択が容易になる。
[第2実施形態]
図17および図18に示す第2実施形態では、対象画像20Tから、除外すべき被写体である除外対象被写体ESを抽出し、除外対象被写体ESを類似画像20Sから除外する処理を、第2処理として実行する。
図17では、男性S10、男性S10の右側に立つ樹木S11、歩いている女性S12、カップルの女性S13、カップルの男性S14が被写体として写った対象画像20T-Bを例示している。また、男性S10の胸付近の符号OPで示す点を操作点として、男性S10を拡大してトリミングを実行した対象画像20T-Aを例示している。
この場合も図12で示した場合と同様に、表85に示すように、対象画像20T-Aの被写体の写り具合、および操作点と被写体との距離に基づいて、各被写体S10~S14に対してスコアリングする。そして、表86に示すように、各被写体S10~S14の合計スコアを算出する。
被写体抽出部50は主要被写体MSを抽出し、かつ除外対象被写体ESも抽出する。図17では、被写体抽出部50は、図12の場合と同様に、最高スコアである男性S10を主要被写体MSとして抽出する。また、被写体抽出部50は、スコアが負の被写体S13、S14を、除外対象被写体ESとして抽出する。なお、除外対象被写体ESの抽出条件としては、上記のスコアが負の被写体に限らない。最低スコアの被写体のみを除外対象被写体ESとして抽出してもよいし、スコアが0以下の被写体を除外対象被写体ESとして抽出してもよい。
図18において、図18Aの第1処理前の対象画像20T-Bと第1処理後の対象画像20T-Aとは、図17で示したものと同じである。図18Bでは、男性S10と樹木S11は変わりないが、女性S12が左側に移動し、カップルの女性S13と男性S14が男性S10に近付いている類似画像20S-Bを例示している。
この場合、処理部47は、図15で示した場合と同様に、主要被写体MSである男性S10の位置および大きさが、対象画像20T-Aに写る男性S10の位置および大きさを受け継いだものとなるように第2処理を実行する。しかし、そうした第2処理を実行すると、破線で示すように、除外対象被写体ESである女性S13が類似画像20S-Aに写り込んでしまう。そこで、処理部47は、矢印で示すように、除外対象被写体ESである女性S13が類似画像20S-Aに写り込まないよう、表示枠70を左側に移動させる。この表示枠70を移動させる処理が、除外対象被写体ESを類似画像20S-Aから除外する処理である。
このように、第2実施形態では、被写体抽出部50において、対象画像20Tから除外対象被写体ESを抽出し、処理部47において、除外対象被写体ESを類似画像20Sから除外する処理を、第2処理として実行する。除外対象被写体ESは、利用者12が積極的に画像から除外したい確率が比較的高い被写体であると考えられる。したがって、除外対象被写体ESを類似画像20Sから除外する処理は、第1処理に込めた利用者12の意図を汲んだ第2処理であるといえる。
[第3実施形態]
図19に示す第3実施形態では、画像抽出部51は、対象画像20Tとの撮影間隔に基づいて、類似画像20Sを抽出する。より具体的には、画像抽出部51は、対象画像20Tと撮影日時が連続する画像であって、直後の画像との撮影間隔が設定間隔よりも離れている画像20D-1と、直前の画像との撮影間隔が設定間隔よりも離れている画像20D-2とで前後が区切られる一連の画像を、類似画像20Sとして抽出する。
図19では、画像ID:IM0071、撮影日時:2018.07.11、14:17:01で、主要被写体MSとして幼女が写った対象画像20Tを例示している。また、設定間隔として5秒を例示している。この場合、画像ID:IM0069、撮影日時:2018.07.11、14:15:18で、樹木が写った画像が、直後の画像(画像ID:IM0070、撮影日時:2018.07.11、14:17:00の画像)との撮影間隔が設定間隔よりも離れている画像20D-1である。また、画像ID:IM0073、撮影日時:2018.07.11、14:20:41で、カップルが写った画像が、直前の画像(画像ID:IM0072、撮影日時:2018.07.11、14:17:02の画像)との撮影間隔が設定間隔よりも離れている画像20D-2である。そして、これら画像ID:IM0069の画像20D-1と画像ID:IM0073の画像20D-2とで前後が区切られる、画像ID:IM0070、IM0072の画像が、画像抽出部51により類似画像20Sとして抽出される。
このように、第3実施形態では、画像抽出部51において、対象画像20Tとの撮影間隔に基づいて、類似画像20Sを抽出する。したがって、撮影日時の情報で類似画像20Sが抽出される。図14で示した手法のように、画像内に主要被写体MSを含むか否かを確かめる必要がない。
また、画像抽出部51において、対象画像20Tと撮影日時が連続する画像であって、直後の画像との撮影間隔が設定間隔よりも離れている画像20D-1と、直前の画像との撮影間隔が設定間隔よりも離れている画像20D-2とで前後が区切られる一連の画像を、類似画像20Sとして抽出する。したがって、類似画像20Sとして適切な画像を抽出する確率が高まる。
なお、設定間隔を5秒としたが、あくまでも一例である。連写機能を用いて撮影した画像を想定して、設定間隔を1秒としてもよいし、逆に設定間隔を長めの1分等としてもよい。利用者12が設定間隔を変更可能に構成してもよい。
対象画像20Tとの撮影間隔が設定範囲内の画像を、類似画像20Sとして抽出してもよい。例えば、対象画像20Tの前後1分以内に撮影された画像を、類似画像20Sとして抽出する。
第1実施形態の主要被写体MSを含む画像を類似画像20Sとして抽出する手法と、第3実施形態の対象画像20Tとの撮影間隔に基づいて類似画像20Sを抽出する手法とを複合して実施してもよい。例えば、対象画像20Tとの撮影間隔が設定範囲内の画像に対して、図14で示した手法を適用して類似画像20Sを抽出する。または、図14で示した手法で類似画像20Sを抽出する。次いで、図14で示した手法で抽出した類似画像20Sに対して、図19で示した手法を適用し、さらに類似画像20Sを絞り込む。
[第4実施形態]
図20に示す第4実施形態では、受付部46において、利用者12による類似画像20Sの指定を受け付ける。
図20に示す画像表示画面60は、一覧61が表示される点では、図5Aで示したものと同じである。図5Aで示した画像表示画面60との相違点は、類似画像20Sを指定する旨のメッセージが上部に表示され、指定ボタン90が下部に配され、さらに対象画像20Tがグレーアウト表示されている点である。制御部48は、対象画像20T-Bへの第1処理が終了した後(図16で示したステップST140の後)に、図20に示す画像表示画面60をディスプレイ34に表示させる。
ハッチングで示すように、タップ操作により一覧61の中の類似画像20Sが利用者12により指定される。そして、指定ボタン90が選択される。指定ボタン90が選択された場合、そのとき画像表示画面60上で指定されている画像が、類似画像20Sとして受付部46で受け付けられる。
このように、第4実施形態では、受付部46において、利用者12による類似画像20Sの指定を受け付ける。したがって、利用者12が視認して判断した画像が類似画像20Sとされる。なお、第4実施形態を単独で実施する場合は、被写体抽出部50と画像抽出部51は不要となる。
上記各実施形態と第4実施形態とを複合して実施してもよい。例えば、画像表示画面60の一覧61において、画像抽出部51が抽出した類似画像20Sを枠で囲う等して利用者12に表示し、かつ利用者12による類似画像20Sの指定を受け付けてもよい。利用者12は、画像抽出部51が抽出した類似画像20Sが適切か否かを、画像表示画面60で視認して判断する。そして、画像抽出部51が抽出した類似画像20Sが適切でなかった場合は、類似画像20Sの指定を外す。
あるいは、第1実施形態の主要被写体MSを含む画像を類似画像20Sとして抽出する手法と、第3実施形態の対象画像20Tとの撮影間隔に基づいて類似画像20Sを抽出する手法と、第4実施形態の利用者12による類似画像20Sの指定を受け付ける手法とのいずれで類似画像20Sを特定するかを、利用者12が選択可能に構成してもよい。
[第5実施形態]
図21に示す第5実施形態では、制御部48は、第1処理が既に実行された類似画像20Sについては、第2処理を処理部47に処理させない。
制御部48は、第1処理の実行履歴である実行履歴情報41を参照して、類似画像20Sが、第1処理が既に実行されたものであるか否かを判断する。具体的には、制御部48は、類似画像20Sとして抽出された画像が、実行履歴情報41に登録されていた場合、当該画像に対して第1処理が既に実行されていると判断する。一方、実行履歴情報41に登録されていなかった場合は、第1処理が実行されていないと判断する。
図21では、図14と同じく、画像ID:IM0068で、主要被写体MSとして幼女が写った対象画像20Tを例示している。また、図14と同じく、画像ID:IM0061~IM0067の画像が、類似画像20Sとして抽出された場合を例示している。そして、画像ID:IM0065の類似画像20Sが、画像ID:IM0068の対象画像20Tの前に、第1処理が既に実行されていた場合を例示している。この場合、制御部48は、画像ID:IM0065の類似画像20Sについては、第2処理を処理部47に処理させない。
例えば、画像ID:IM0065の類似画像20Sに対して、第1処理として画像エフェクトAが実行され、画像ID:IM0068の対象画像20Tに対して、第1処理として画像エフェクトBが実行された場合を考える。この場合、制御部48は、画像ID:IM0065以外の類似画像20Sに対しては、第2処理として画像エフェクトBを処理部47に処理させる。一方、画像ID:IM0065の類似画像20Sに対しては、画像エフェクトBを処理部47に処理させず、画像エフェクトAが掛けられたままとする。
このように、第5実施形態では、制御部48は、第1処理が既に実行された類似画像20Sについては、第2処理を処理部47に処理させない。したがって、利用者12により指示された第1処理の内容が尊重される。
図17等の樹木S11で例示したように、被写体は人物に限らない。樹木をはじめとして、花、山岳、川、湖といった自然造形物、動物、昆虫、あるいは建物、椅子、机、ベッドといった人工物でもよい。
また、主要被写体MSは1つの被写体に限らない。例えば最高スコアの被写体と次点のスコアの被写体を主要被写体MSとして抽出する等、複数の被写体を主要被写体MSとして抽出してもよい。この場合、例えば3人の人物を主要被写体MSとして抽出した場合に、3人の人物が写った画像だけでなく、3人のうちの2人が写った画像も、画像抽出部51において類似画像20Sとして抽出してもよい。
第1実施形態、第3実施形態、第4実施形態の類似画像20Sを抽出する手法に代えて、あるいは加えて、GPS(Global Positioning System)等で取得した位置情報に基づいて類似画像20Sを抽出する手法を用いてもよい。例えば、位置情報で示される撮影場所が設定範囲内の画像を類似画像20Sとして抽出する。
画像表示画面60に、第2処理をワンタッチで取り消すためのGUIを設けてもよい。こうすれば、類似画像20Sの抽出精度が比較的低かった場合や、利用者12が第2処理を不要と考えた場合に、簡単に第2処理前の状態に戻せる。
画像管理サーバ11に画像を記憶管理させるのではなく、携帯端末10のストレージデバイス30に画像を記憶しておいてもよい。この場合は、画像送受信部45は不要となる。
画像処理装置は上記各実施形態で例示した携帯端末10に限らない。デスクトップ型のパーソナルコンピュータに画像処理プログラム40をインストールし、デスクトップ型のパーソナルコンピュータを画像処理装置として稼働させてもよい。ただし、デスクトップ型のパーソナルコンピュータの場合は、携帯端末10のようにピンチアウト操作およびピンチイン操作に相当する操作がない。このため、デスクトップ型のパーソナルコンピュータを画像処理装置として稼働させた場合は、拡大指示の操作点に基づくスコアリング、縮小指示の操作点に基づくスコアリングは行われない。
また、画像管理サーバ11をはじめとするWAN13上のサーバに画像処理プログラム40をインストールし、WAN13上のサーバを画像処理装置として稼働させてもよい。この場合、携帯端末10は、対象画像20Tの選択指示や第1処理に関わる指示を、画像処理装置として稼働するサーバ(以下、画像編集サーバ)に送信する。画像編集サーバは、画像表示画面60を、携帯端末10のウェブブラウザ上で閲覧可能な画面データの形式で送信する。携帯端末10は、画像表示画面60の画面データを画像編集サーバから受信し、受信した画面データに基づきウェブブラウザ上に表示する画像表示画面60を再現し、これをディスプレイ34に表示する。より具体的には、画像編集サーバは、画像表示画面60を、例えばXML(Extensible Markup Language)等のマークアップ言語によって作成されるウェブ配信用の画面データの形式で送信する。XMLに代えて、JSON(JavaScript(登録商標) Object Notation)等の他のデータ記述言語を利用してもよい。
画像編集サーバを構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、画像編集サーバを、処理能力や信頼性の向上を目的として、ハードウェアとして分離された複数台のサーバコンピュータで構成することも可能である。具体的には、受付部46、処理部47、および制御部48の機能と、管理部49、被写体抽出部50、および画像抽出部51の機能とを、2台のサーバコンピュータに分散して担わせる。この場合は2台のサーバコンピュータで画像編集サーバを構成する。
このように、コンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、画像処理プログラム40等のアプリケーションプログラムについても、安全性や信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。
上記各実施形態において、例えば、画像送受信部45、受付部46、処理部47、制御部48、管理部49、被写体抽出部50、画像抽出部51といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(画像処理プログラム40)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
以上の記載から、以下の付記項1に記載の発明を把握することができる。
[付記項1]
画像に対して画像処理する処理プロセッサと、
利用者が指示した第1処理の対象画像について、前記第1処理を前記処理プロセッサに処理させる制御を行い、かつ、前記対象画像と類似した類似画像について、前記第1処理に応じた第2処理を前記処理プロセッサに処理させる制御を行う制御プロセッサと、
を備える画像処理装置。
本開示の技術は、上述の種々の実施形態や種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。
さらに、本開示の技術は、プログラムに加えて、プログラムを記憶する記憶媒体にもおよぶ。具体的には、画像処理プログラム40といったアプリケーションプログラムは、上記各実施形態のようにストレージデバイス30に記憶されている形態に限らない。画像処理プログラム40をコンピュータで読み取り可能な記憶媒体に記憶した形態で提供してもよい。記憶媒体としては、例えば、CD-ROM(Compact Disc Read Only Memory)およびDVD-ROM(Digital Versatile Disc Read Only Memory)等の光ディスク、USB(Universal Serial Bus)メモリおよびメモリカード等の半導体メモリが挙げられる。また、画像処理プログラム40を、通信部33に接続されたWAN13等の通信回線を介して外部装置から取得するようにしてもよい。
2 画像管理システム
10 携帯端末(画像処理装置)
11 画像管理サーバ
12 利用者
13 WAN
20T 対象画像
20T-B 第1処理前の対象画像
20T-A 第1処理後の対象画像
20S 類似画像
20S-B 第2処理前の類似画像
20S-A 第2処理後の類似画像
20N 主要被写体を含まない画像
20D-1 直後の画像との撮影間隔が設定間隔よりも離れている画像
20D-2 直前の画像との撮影間隔が設定間隔よりも離れている画像
30 ストレージデバイス
31 メモリ
32 CPU
33 通信部
34 ディスプレイ
35 タッチパネル
36 データバス
40 画像処理プログラム
41 実行履歴情報
45 画像送受信部
46 受付部
47 処理部
48 制御部
49 管理部
50 被写体抽出部
51 画像抽出部
60 画像表示画面
61 一覧
62 トリミングボタン
63 エフェクトボタン
64 余白付与ボタン
65 キャンセルボタン
70 表示枠
75 余白
80、81、85、86 表
90 指定ボタン
ST10~ST13、ST100~ST190 ステップ
S1~S5、S10~S14 被写体
OP 操作点
MS 主要被写体
ES 除外対象被写体

Claims (13)

  1. 画像に対して画像処理する処理部と、
    利用者が指示した第1処理の対象画像について、前記第1処理を前記処理部に処理させる制御を行い、かつ、前記対象画像と類似した類似画像について、前記第1処理に応じた第2処理を前記処理部に処理させる制御を行う制御部と
    前記対象画像から主要被写体を抽出する被写体抽出部と
    前記主要被写体を含む画像を、前記類似画像として抽出する画像抽出部として、コンピュータを機能させ
    前記被写体抽出部は、前記第1処理前後の前記対象画像、および前記利用者の前記第1処理に関わる指示の操作履歴のうちの少なくとも1つに基づいて、前記主要被写体を抽出する、
    画像処理プログラム。
  2. 前記画像抽出部は、前記対象画像と撮影日時が連続し、かつ前記主要被写体を含む画像であって、前記主要被写体を含まない画像で前後が区切られる一連の画像を、前記類似画像として抽出する請求項に記載の画像処理プログラム。
  3. 前記被写体抽出部は、前記第1処理後の前記対象画像における被写体の写り具合、および前記操作履歴における前記対象画像への前記利用者の操作点と前記被写体との距離のうちの少なくとも1つに基づいて、前記主要被写体を抽出する請求項1または2に記載の画像処理プログラム。
  4. 前記写り具合は、前記第1処理後の前記対象画像に含まれる前記被写体の割合、部位、および位置のうちの少なくとも1つである請求項に記載の画像処理プログラム。
  5. 前記第2処理は、前記第2処理後の前記類似画像の前記主要被写体が、前記第1処理後の前記対象画像の前記主要被写体の位置および大きさのうちの少なくとも1つを受け継いだものとなる処理である請求項ないしのいずれか1項に記載の画像処理プログラム。
  6. 前記被写体抽出部は、前記対象画像から、除外すべき被写体である除外対象被写体を抽出し、
    前記第2処理は、前記除外対象被写体を前記類似画像から除外する処理を含む請求項ないしのいずれか1項に記載の画像処理プログラム。
  7. 前記画像抽出部は、前記対象画像との撮影間隔に基づいて、前記類似画像を抽出する請求項ないしのいずれか1項に記載の画像処理プログラム。
  8. 前記画像抽出部は、前記対象画像と撮影日時が連続する画像であって、直後の画像との前記撮影間隔が設定間隔よりも離れている画像と、直前の画像との前記撮影間隔が前記設定間隔よりも離れている画像とで前後が区切られる一連の画像を、前記類似画像として抽出する請求項に記載の画像処理プログラム。
  9. 前記利用者による前記類似画像の指定を受け付ける受付部として、前記コンピュータを機能させる請求項1ないしのいずれか1項に記載の画像処理プログラム。
  10. 前記第1処理の実行履歴を管理する管理部として、前記コンピュータを機能させ、
    前記制御部は、前記実行履歴を参照して、前記第1処理が既に実行された前記類似画像については、前記第2処理を前記処理部に処理させない請求項1ないしのいずれか1項に記載の画像処理プログラム。
  11. 画像に対して画像処理する処理部と、
    利用者が指示した第1処理の対象画像について、前記第1処理を前記処理部に処理させる制御を行い、かつ、前記対象画像と類似した類似画像について、前記第1処理に応じた第2処理を前記処理部に処理させる制御を行う制御部と、
    前記対象画像から主要被写体を抽出する被写体抽出部と
    前記主要被写体を含む画像を、前記類似画像として抽出する画像抽出部と、
    を備え
    前記被写体抽出部は、前記第1処理前後の前記対象画像、および前記利用者の前記第1処理に関わる指示の操作履歴のうちの少なくとも1つに基づいて、前記主要被写体を抽出する、
    画像処理装置。
  12. コンピュータに、
    対象画像に対する利用者の操作から前記対象画像と類似した類似画像を抽出する機能と、
    前記操作に応じた前記対象画像に対する処理と同様の処理を前記類似画像に対して実行する機能と、
    前記対象画像から主要被写体を抽出する機能であって、前記処理前後の前記対象画像、および前記利用者の前記操作の操作履歴のうちの少なくとも1つに基づいて、前記主要被写体を抽出する機能と、
    前記主要被写体を含む画像を、前記類似画像として抽出する機能と、
    を実現させるためのプログラム。
  13. 画像に対して画像処理する処理部と、
    利用者が指示した第1処理の対象画像について、前記第1処理を前記処理部に処理させる制御を行い、かつ、前記対象画像と類似した類似画像について、前記第1処理に応じた第2処理を前記処理部に処理させる制御を行う制御部と、
    前記対象画像から主要被写体を抽出する被写体抽出部と
    前記主要被写体を含む画像を、前記類似画像として抽出する画像抽出部として、コンピュータを機能させ、
    前記第1処理はトリミングであり、
    前記被写体抽出部は、トリミング後の前記対象画像、および前記利用者のトリミングに関わる指示の操作履歴、のうちの少なくとも1つに基づいて、前記主要被写体を抽出する、
    画像処理プログラム。
JP2018179445A 2018-09-25 2018-09-25 画像処理プログラムおよび画像処理装置、並びにプログラム Active JP7230396B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018179445A JP7230396B2 (ja) 2018-09-25 2018-09-25 画像処理プログラムおよび画像処理装置、並びにプログラム
CN201910279589.6A CN110944118B (zh) 2018-09-25 2019-04-09 计算机可读存储介质、图像处理装置及图像处理方法
US16/572,576 US11449701B2 (en) 2018-09-25 2019-09-16 Non-transitory computer readable medium storing image processing program, image processing apparatus, and non-transitory computer readable medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018179445A JP7230396B2 (ja) 2018-09-25 2018-09-25 画像処理プログラムおよび画像処理装置、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2020052578A JP2020052578A (ja) 2020-04-02
JP7230396B2 true JP7230396B2 (ja) 2023-03-01

Family

ID=69883227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018179445A Active JP7230396B2 (ja) 2018-09-25 2018-09-25 画像処理プログラムおよび画像処理装置、並びにプログラム

Country Status (3)

Country Link
US (1) US11449701B2 (ja)
JP (1) JP7230396B2 (ja)
CN (1) CN110944118B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235852A1 (ko) * 2019-05-17 2020-11-26 삼성전자 주식회사 특정 순간에 관한 사진 또는 동영상을 자동으로 촬영하는 디바이스 및 그 동작 방법
CN111913635B (zh) * 2020-08-14 2022-12-13 广东申义实业投资有限公司 三维全景图片显示方法、装置、移动终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108416A (ja) 2001-09-27 2003-04-11 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2011114463A (ja) 2009-11-25 2011-06-09 Nikon Corp 画像処理装置、撮像装置および画像処理プログラム
JP2015114828A (ja) 2013-12-11 2015-06-22 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3965894B2 (ja) * 2000-10-05 2007-08-29 富士ゼロックス株式会社 画像処理装置および画像処理方法
JP4720686B2 (ja) 2006-09-01 2011-07-13 株式会社セガ 自動写真館
JP4795907B2 (ja) * 2006-09-27 2011-10-19 富士フイルム株式会社 画像評価装置および方法並びにプログラム
JP2010509672A (ja) * 2006-11-03 2010-03-25 スノウフレイク テクノロジーズ コーポレーション 生体認識情報の抽出と対照のための方法及び装置
JP2008117271A (ja) * 2006-11-07 2008-05-22 Olympus Corp デジタル画像の被写体認識装置、プログラム、および記録媒体
CN100495438C (zh) * 2007-02-09 2009-06-03 南京大学 一种基于视频监控的运动目标检测与识别方法
JP4945486B2 (ja) 2008-03-18 2012-06-06 富士フイルム株式会社 画像重要度判定装置、アルバム自動レイアウト装置、プログラム、画像重要度判定方法およびアルバム自動レイアウト方法
US8565540B2 (en) * 2011-03-08 2013-10-22 Neal Solomon Digital image and video compression and decompression methods
JP2013038468A (ja) * 2011-08-03 2013-02-21 Canon Inc 画像処理装置及び画像処理方法、撮像装置及びその制御方法、プログラム、並びに記憶媒体
WO2013084422A1 (ja) * 2011-12-08 2013-06-13 日本電気株式会社 情報処理装置、通信端末、情報検索方法、及び非一時的なコンピュータ可読媒体
JP5966778B2 (ja) * 2012-09-05 2016-08-10 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP5977450B2 (ja) * 2013-06-28 2016-08-24 楽天株式会社 情報処理装置、情報処理方法及び情報処理プログラム
EP3028187A1 (en) * 2013-07-30 2016-06-08 Kodak Alaris Inc. System and method for creating navigable views of ordered images
JP2016181808A (ja) * 2015-03-24 2016-10-13 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108416A (ja) 2001-09-27 2003-04-11 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2011114463A (ja) 2009-11-25 2011-06-09 Nikon Corp 画像処理装置、撮像装置および画像処理プログラム
JP2015114828A (ja) 2013-12-11 2015-06-22 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
CN110944118A (zh) 2020-03-31
US20200097760A1 (en) 2020-03-26
JP2020052578A (ja) 2020-04-02
CN110944118B (zh) 2024-01-26
US11449701B2 (en) 2022-09-20

Similar Documents

Publication Publication Date Title
US20230368332A1 (en) Automatic image inpainting
US10516830B2 (en) Guided image composition on mobile devices
US10346560B2 (en) Electronic blueprint system and method
US9491366B2 (en) Electronic device and image composition method thereof
US20180082455A1 (en) Rear image candidate determination device, rear image candidate determination method, and rear image candidate determination program
US20160349972A1 (en) Data browse apparatus, data browse method, and storage medium
EP2778989A2 (en) Application information processing method and apparatus of mobile terminal
JP7230396B2 (ja) 画像処理プログラムおよび画像処理装置、並びにプログラム
US20160148343A1 (en) Information Processing Method and Electronic Device
US9432583B2 (en) Method of providing an adjusted digital image representation of a view, and an apparatus
JP2012190349A (ja) 画像処理装置、画像処理方法および制御プログラム
US20210407161A1 (en) Image processing apparatus, image processing method, program, and recording medium
JP2011097565A (ja) グラフィック配置決定方法ならびにそのプログラムおよび情報処理装置
US20180012073A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
WO2021063222A1 (zh) 电子设备和图像处理方法
JP6170241B2 (ja) 文字特定装置、および制御プログラム
US20210406588A1 (en) Image processing device, image processing method, and image processing program
CN112822394A (zh) 显示控制方法、装置、电子设备及可读存储介质
JP2007104360A (ja) 画像レイアウト装置および方法並びにプログラム
JP4588627B2 (ja) 画像処理装置および画像処理プログラム
JP2016149149A (ja) 画像処理装置、重要人物判定方法、画像レイアウト方法ならびにプログラムおよび記録媒体
US11127218B2 (en) Method and apparatus for creating augmented reality content
JP6408055B2 (ja) 情報処理装置、方法及びプログラム
JP2021184184A (ja) 情報処理装置およびプログラム
JP2008053813A (ja) 画像処理装置、および画像処理方法、並びに画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7230396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150