A RetroSearch Logo

Home - News ( United States | United Kingdom | Italy | Germany ) - Football scores

Search Query:

Showing content from https://patents.google.com/patent/JP2001036749A/en below:

JP2001036749A - Image processor, its method and recording medium

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置、方法
及び記録媒体に係り、特に、画像記録材料に可視光を照
射することで得られた可視画像情報、及び非可視光を照
射することで得られた非可視画像情報を用いて所定の画
像処理を行う画像処理装置、該画像処理装置に適用可能
な画像処理方法、及びコンピュータを画像処理装置とし
て機能させるためのプログラムが記録された記録媒体に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, a method and a recording medium, and more particularly to a method for irradiating visible image information obtained by irradiating an image recording material with visible light and irradiating non-visible light. Image processing apparatus for performing predetermined image processing using the obtained invisible image information, image processing method applicable to the image processing apparatus, and recording medium storing a program for causing a computer to function as the image processing apparatus About.

【0002】[0002]

【従来の技術】写真フィルムは、取扱い方によっては乳
剤面やバック面(乳剤面の裏面)に傷が付くことがある
が、写真フィルムの画像記録領域内に相当する箇所に傷
が付いていた場合、該写真フィルムに記録されている画
像を出力(印画紙等の画像記録材料に記録、或いはディ
スプレイ等の表示手段に表示)したとすると、傷の程度
にもよるが、写真フィルムに付いた傷が、低濃度の筋や
白い筋等の欠陥部として出力画像上で明瞭に視認される
ことが多い。また、写真フィルムの表面に塵埃等の異物
が付着していた場合にも、該異物が欠陥部として明瞭に
視認される。
2. Description of the Related Art A photographic film may be damaged on the emulsion surface or the back surface (the back surface of the emulsion surface) depending on how to handle the film. However, the photographic film has been damaged at a portion corresponding to the image recording area of the photographic film. In this case, if an image recorded on the photographic film is output (recorded on an image recording material such as photographic paper or displayed on a display means such as a display), the image attached to the photographic film depends on the degree of scratches. The scratches are often clearly recognized on the output image as defective portions such as low-density streaks and white streaks. Also, when foreign matter such as dust adheres to the surface of the photographic film, the foreign matter is clearly recognized as a defective portion.

【0003】写真フィルムに光を照射し写真フィルムを
透過した光を印画紙に照射することで印画紙に画像を露
光記録する面露光タイプの写真焼付装置では、写真フィ
ルムの傷付き対策として、光源と写真フィルムとの間に
拡散板を配置し、拡散板によって散乱された光を写真フ
ィルムに照射している。しかし、上記技術では出力画像
(印画紙に露光記録した画像)中の欠陥部を消去するこ
とは困難であり、欠陥が若干軽減される(目立たなくな
る)に過ぎない。
In a surface exposure type photographic printing apparatus which irradiates light on a photographic film and irradiates light transmitted through the photographic film onto a photographic paper to expose and record an image on the photographic paper, a light source is used as a measure against scratches on the photographic film. A diffusion plate is disposed between the photographic film and the photographic film, and the light scattered by the diffusion plate is irradiated on the photographic film. However, it is difficult to erase a defective portion in an output image (an image recorded on a photographic paper by exposure) with the above technique, and the defect is only slightly reduced (is less noticeable).

【0004】また、写真フィルムに記録された画像をC
CD等の読取センサによって読み取る構成の画像読取装
置に適用可能な技術として、特開平11−75039号
公報には、可視光域3波長と、非可視光域(例えば赤外
域や紫外域)1波長を含む少なくとも4波長以上の波長
域で写真フィルムを各々読み取り、非可視光域での読み
取りによって得られた情報に基づいて、可視光域での読
み取りによって得られた画像情報を補正する技術が開示
されている。
Further, an image recorded on a photographic film is represented by C
As a technique applicable to an image reading apparatus configured to read by a reading sensor such as a CD, Japanese Patent Application Laid-Open No. H11-75039 discloses three wavelengths in a visible light range and one wavelength in an invisible light range (for example, an infrared range or an ultraviolet range). A technique for reading a photographic film in at least four wavelength ranges including at least four wavelengths and correcting image information obtained by reading in a visible light range based on information obtained by reading in a non-visible light range is disclosed. Have been.

【0005】可視域の光(以下、可視光という)は、写
真フィルムに記録されている画像濃度に応じて透過光量
が変化すると共に、写真フィルムに傷や異物が付いてい
る箇所でも傷や異物によって光が一部屈折されたり反射
されることで透過光量が変化する。一方、非可視域の光
(以下、非可視光という)は、写真フィルムに傷や異物
が付いている箇所では透過光量が変化するものの、写真
フィルムに記録されている画像濃度の影響は受けない。
[0005] Light in the visible region (hereinafter referred to as visible light) changes the amount of transmitted light in accordance with the image density recorded on the photographic film. As a result, light is partially refracted or reflected to change the amount of transmitted light. On the other hand, light in the invisible range (hereinafter, referred to as invisible light) changes the amount of transmitted light in a portion where the photographic film has scratches or foreign matter, but is not affected by the image density recorded on the photographic film. .

【0006】従って、前記公報に記載の技術によれば、
非可視光の透過光量の変化から写真フィルムに付いてい
る傷や異物を検出し、写真フィルムに付いている傷や異
物に起因する可視光の透過光量の変動を補正すること、
すなわち写真フィルムに付いている傷や異物に起因する
画像(可視光の透過光量を検出することで得られた画像
情報が表す画像)の欠陥部を修正することが可能とな
る。
Therefore, according to the technique described in the above publication,
Detecting flaws and foreign matter on the photographic film from changes in the amount of transmitted non-visible light, and compensating for variations in the amount of visible light transmitted due to the flaws and foreign matter on the photographic film;
That is, it is possible to correct a defective portion of an image (an image represented by image information obtained by detecting the amount of transmitted visible light) due to a scratch or a foreign substance attached to the photographic film.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、可視光
の透過光量を検出して可視画像情報を取得すると共に、
非可視光の透過光量を検出して非可視画像情報を取得
し、取得した可視画像情報及び非可視画像情報を欠陥部
の検出・修正に用いる場合、種々の光学特性に起因して
可視画像情報と非可視画像情報の相違が生ずるという問
題がある。
However, while detecting the amount of transmitted visible light to obtain visible image information,
When the amount of transmitted invisible light is detected to acquire invisible image information, and the acquired visible image information and invisible image information are used for detection and correction of a defective portion, the visible image information is generated due to various optical characteristics. And invisible image information.

【0008】すなわち、写真フィルムに記録された画像
を読取センサによって読み取る既存のフィルムスキャナ
は、本来、可視域内の波長の光のみを扱うことを前提に
光学系が設計されている。そして前記光学系のうち、写
真フィルムを透過した光を結像させる結像レンズは、従
来、可視域内の3波長(例えばR,G,B)の光につい
て光学特性が揃っていることを目標として設計され、非
可視域における光学特性については殆ど考慮されていな
い。
That is, an existing film scanner that reads an image recorded on a photographic film by a reading sensor is originally designed with an optical system on the assumption that it handles only light having a wavelength in the visible range. In the above-mentioned optical system, an imaging lens for imaging light transmitted through a photographic film has conventionally been designed to have uniform optical characteristics with respect to light of three wavelengths (for example, R, G, and B) within a visible region. Designed, little consideration is given to optical properties in the non-visible range.

【0009】このため、結像レンズの歪曲収差や倍率色
収差(光学特性の1つ)は非可視域において顕著である
ことが多く、可視光の透過光量を検出することで得られ
た可視画像情報と、非可視光の透過光量を検出すること
で得られた非可視画像情報で、実際の画像上での画素位
置が相違する、所謂画素ずれが発生することが多い。ま
た、可視光を検出するセンサと別に非可視光を検出する
センサを設けた場合、各センサの配置位置(これも光学
特性の1つ)の相違によっても画素ずれが発生すること
がある。
For this reason, distortion and chromatic aberration of magnification (one of the optical characteristics) of the imaging lens are often remarkable in the non-visible range, and visible image information obtained by detecting the amount of transmitted visible light. In addition, the so-called pixel shift that the pixel position on the actual image is different in the invisible image information obtained by detecting the transmitted light amount of the invisible light often occurs. In addition, when a sensor that detects invisible light is provided separately from a sensor that detects visible light, a pixel shift may occur due to a difference in the arrangement position (also one of the optical characteristics) of each sensor.

【0010】また、前述のように結像レンズの非可視域
における光学特性は殆ど考慮されていないので、結像レ
ンズの焦点距離(光学特性の1つ)についても可視域と
非可視域とで大きく異なっていることが多く、可視光の
透過光量の検出と非可視光の透過光量の検出を同時に行
う等の場合に、可視画像情報が表す画像と非可視画像情
報が表す画像の鮮鋭度が相違することが多い。
Further, since the optical characteristics of the imaging lens in the invisible range are hardly considered as described above, the focal length (one of the optical characteristics) of the imaging lens is different between the visible range and the non-visible range. In many cases, the sharpness of the image represented by the visible image information and the sharpness of the image represented by the non-visible image information are different when the detection of the transmitted light amount of visible light and the detection of the transmitted light amount of invisible light are performed simultaneously. Often different.

【0011】上記の問題を解決するために、可視域のみ
ならず非可視域における特性も揃うように設計された結
像レンズを用いることも考えられるが、特に長波長側
(赤外域側)の特性も揃うようにレンズを設計すること
は困難であり、このようなレンズはコストが非常に嵩む
ので現実的ではない。また、上記のようなレンズを用い
たとしても、写真フィルムのフィルムベース自体が、透
過光に対する光量の減衰度(光学特性の1つ)が透過光
の波長によって相違するという特性を有しているので、
非可視光の透過光量の検出結果から、写真フィルムに付
いている傷や異物に起因する可視光の透過光量の変化を
精度良く求めることは困難である。
In order to solve the above-mentioned problem, it is conceivable to use an imaging lens designed to have the same characteristics not only in the visible region but also in the non-visible region. It is difficult to design a lens to have the same characteristics, and such a lens is not realistic because the cost is very high. Even when the above-described lens is used, the film base itself of the photographic film has a characteristic that the degree of attenuation of light amount (one of optical characteristics) with respect to transmitted light differs depending on the wavelength of transmitted light. So
It is difficult to accurately determine the change in the transmitted light amount of visible light caused by a scratch or a foreign substance on the photographic film from the detection result of the transmitted light amount of invisible light.

【0012】更に、写真フィルムのフィルムベースの屈
折率は光の波長が長くなるに従って小さくなることが一
般的である。このため、非可視光として赤外域側の波長
域の光を用いる場合、写真フィルムに付いた傷の検出精
度向上の一手段として、非可視光の波長域(これも光学
特性の1つ)を短波長側に若干シフトさせることが考え
られる。しかし、これに伴い非可視光の波長域の一部が
可視域に入ることで、写真フィルムの乳剤層のシアン色
素成分による吸収が発生し、非可視光として写真フィル
ムに照射した光の透過光量が、写真フィルムに記録され
ている画像のR濃度によって若干変化することになる。
Furthermore, the refractive index of the film base of a photographic film generally decreases as the wavelength of light increases. For this reason, when light in the infrared wavelength range is used as the invisible light, the wavelength range of invisible light (also one of the optical characteristics) is used as a means of improving the detection accuracy of a flaw on a photographic film. A slight shift to the shorter wavelength side is conceivable. However, a part of the wavelength range of the invisible light enters the visible range, causing absorption by the cyan dye component of the emulsion layer of the photographic film, and the transmitted light amount of the light applied to the photographic film as invisible light Varies slightly depending on the R density of the image recorded on the photographic film.

【0013】そして、上記の画素ずれや鮮鋭度の相違、
減衰度の相違、非可視光の波長域をシフトさせることに
起因する透過光量の変化は、可視画像情報及び非可視画
像情報を用いて欠陥部を検出して欠陥部の修正を行った
場合に、欠陥部に対する修正精度の低下に繋がる、とい
う問題があった。
Then, the above-mentioned pixel shift and difference in sharpness,
The difference in attenuation, the change in the amount of transmitted light caused by shifting the wavelength range of invisible light, occurs when a defective portion is detected and corrected using visible image information and invisible image information. This leads to a problem that the accuracy of correction for the defective portion is reduced.

【0014】本発明は上記事実を考慮して成されたもの
で、低コストな構成で欠陥部の修正精度を向上させるこ
とが可能な画像処理装置、方法及び記録媒体を得ること
が目的である。
SUMMARY OF THE INVENTION The present invention has been made in view of the above facts, and has as its object to provide an image processing apparatus, method, and recording medium capable of improving the accuracy of correcting a defective portion with a low-cost configuration. .

【0015】[0015]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る画像処理装置は、画像記録
材料の画像記録領域に可視光を照射し前記画像記録領域
を透過又は反射した可視光を第1検出手段によって検出
することで得られた可視画像情報、及び前記画像記録領
域に非可視光を照射し前記画像記録領域を透過又は反射
した非可視光を第2検出手段によって検出することで得
られた非可視画像情報を取得する取得手段と、前記可視
画像情報及び前記非可視画像情報の少なくとも一方に対
し、光学特性に起因する前記双方の情報の差異を補正す
る補正手段と、を含んで構成されている。
In order to achieve the above object, an image processing apparatus according to the first aspect of the present invention irradiates visible light to an image recording area of an image recording material and transmits or reflects the visible light through the image recording area. The visible image information obtained by detecting the visible light obtained by the first detecting means, and the non-visible light transmitted to or reflected from the image recording area by irradiating the image recording area with the invisible light is detected by the second detecting means. Acquiring means for acquiring invisible image information obtained by detection, and correcting means for correcting a difference between the visible information and at least one of the invisible image information due to an optical characteristic. And is configured.

【0016】請求項1記載の発明では、画像記録材料の
画像記録領域に可視光を照射し画像記録領域を透過又は
反射した可視光を第1検出手段によって検出することで
得られた可視画像情報、及び画像記録領域に非可視光を
照射し画像記録領域を透過又は反射した非可視光を第2
検出手段によって検出することで得られた非可視画像情
報が取得手段によって取得される。なお、第1検出手段
及び第2検出手段は本発明に係る画像処理装置に含まれ
ていてもよいし、別の装置(画像読取装置等)に含まれ
ていてもよい。第1検出手段及び第2検出手段が別の装
置に含まれている場合、取得手段による可視画像情報及
び非可視画像情報の取得は、前記別の装置から各画像情
報を受信することで実現できる。
According to the first aspect of the present invention, visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detecting means. And irradiating the image recording area with invisible light and transmitting or reflecting the invisible light through the image recording area to the second
The invisible image information obtained by detection by the detection means is acquired by the acquisition means. The first detecting means and the second detecting means may be included in the image processing device according to the present invention, or may be included in another device (such as an image reading device). When the first detection unit and the second detection unit are included in another device, the acquisition of the visible image information and the invisible image information by the acquisition unit can be realized by receiving each image information from the another device. .

【0017】そして、請求項1の発明に係る補正手段
は、可視画像情報及び非可視画像情報の少なくとも一方
に対し、光学特性に起因する双方の情報(可視画像情報
と非可視画像情報)の差異を補正する。この補正は、例
えばレンズやセンサ等の光学系、或いは非可視光の波長
域に関連する光学特性については、前記光学特性自体、
或いは前記光学特性に起因する双方の情報の差異を予め
測定して記憶しておき、測定結果を読み出して用いるこ
とで行うことができる。また、例えば画像記録材料に関
連する光学特性については、前記光学特性自体、或いは
前記光学特性に起因する双方の情報の差異を画像記録材
料の種類毎に予め測定して種類毎に記憶しておき、処理
対象の画像記録材料の種類に対応する測定結果を読み出
して用いることで行うことができる。
The correcting means according to the first aspect of the present invention is arranged such that, for at least one of the visible image information and the invisible image information, the difference between both information (visible image information and invisible image information) due to the optical characteristics. Is corrected. This correction is, for example, an optical system such as a lens or a sensor, or an optical characteristic related to the wavelength range of invisible light, the optical characteristic itself,
Alternatively, it can be performed by measuring and storing in advance the difference between the two types of information caused by the optical characteristics, and reading and using the measurement result. Further, for example, as for the optical characteristics related to the image recording material, the optical characteristics themselves or the difference between both information caused by the optical characteristics is measured in advance for each type of the image recording material and stored for each type. The measurement can be performed by reading and using the measurement result corresponding to the type of the image recording material to be processed.

【0018】上記の補正により、非可視域まで光学特性
の揃った結像レンズ等の高価な光学部品を用いることな
く、光学特性に起因する差異が補正された可視画像情報
及び非可視画像情報を得ることができるので、可視画像
情報が表す画像の欠陥部の検出及び検出した欠陥部の修
正に際し、請求項8にも記載したように、補正手段によ
る補正を経た可視画像情報及び非可視画像情報を用いる
ことで、低コストな構成で欠陥部の修正精度を向上させ
ることが可能となる。
With the above correction, the visible image information and the invisible image information in which the difference caused by the optical characteristics has been corrected can be used without using expensive optical components such as an imaging lens having uniform optical characteristics up to the invisible region. When detecting a defective portion of an image represented by the visible image information and correcting the detected defective portion, the visible image information and the non-visible image information that have been corrected by the correction unit as described in claim 8. By using the method, it is possible to improve the accuracy of correcting a defective portion with a low-cost configuration.

【0019】また、画像記録材料にカラー画像が記録さ
れている等の場合、画像記録領域を透過又は反射した可
視光を可視域内の複数の波長域(好ましくは互いに異な
る3以上の波長域)毎に各々検出することで、可視画像
情報として、前記複数の波長域毎の透過又は反射光量
(或いは透過又は反射濃度)を表す情報を得ることが一
般的である。上記の可視画像情報は、例えば前記複数の
波長域の光を画像記録領域に順次照射し、画像記録領域
を透過又は反射した光を第1検出手段が順次検出する
か、或いは前記複数の波長域の光を含む可視光を画像記
録領域に照射し、画像記録領域を透過又は反射した可視
光を第1の検出手段が前記複数の波長域の光に分解して
検出することで得ることができる。
In the case where a color image is recorded on an image recording material or the like, visible light transmitted or reflected through the image recording area is applied to a plurality of wavelength ranges within the visible range (preferably three or more different wavelength ranges). In general, information representing the amount of transmitted or reflected light (or the density of transmitted or reflected light) for each of the plurality of wavelength ranges is obtained as visible image information. The visible image information is, for example, sequentially irradiating the light in the plurality of wavelength ranges to the image recording area, and the first detection unit sequentially detects the light transmitted or reflected through the image recording area, or the plurality of wavelength ranges. Irradiating visible light including the light of the above to the image recording area, and the first detecting means decomposes and detects the visible light transmitted or reflected through the image recording area into light of the plurality of wavelength ranges. .

【0020】しかし、上記のようにして得られる複数の
波長域毎の可視画像情報相互にも、レンズやセンサ等の
光学系に関連する光学特性や画像記録材料に関連する光
学特性に起因する相違がある。このため取得手段が、可
視画像情報として、画像記録領域を透過又は反射した可
視光を第1検出手段が複数の波長域毎に各々検出するこ
とで得られた複数の波長域毎の可視画像情報を各々取得
する場合、請求項2に記載したように補正手段は、複数
の波長域毎の可視画像情報及び非可視画像情報に対し、
光学特性に起因する前記各画像情報相互の差異を補正す
ることが好ましい。これにより、欠陥部の修正精度を更
に向上させることが可能となる。
However, the visible image information obtained for each of a plurality of wavelength ranges obtained as described above also differs from each other due to optical characteristics related to optical systems such as lenses and sensors and optical characteristics related to image recording materials. There is. For this reason, as the visible image information, the acquisition means detects the visible light transmitted or reflected through the image recording area by the first detection means for each of the plurality of wavelength ranges, and obtains the visible image information for each of the plurality of wavelength ranges. When each is acquired, the correction means as described in claim 2, for the visible image information and invisible image information for each of a plurality of wavelength ranges,
It is preferable to correct a difference between the respective pieces of image information caused by optical characteristics. As a result, it is possible to further improve the accuracy of correcting the defective portion.

【0021】なお、第1検出手段及び第2の検出手段
が、画像記録材料の画像記録領域を透過又は反射しかつ
結像レンズによって結像された可視光又は非可視光を検
出する構成である場合、請求項3に記載したように、補
正手段は、各画像情報(すなわち、可視画像情報と非可
視画像情報、又は複数の波長域毎の可視画像情報と非可
視画像情報:以下同様)の差異として、結像レンズの倍
率色収差又は歪曲収差に起因する画素位置のずれを補正
することが好ましい。
The first detecting means and the second detecting means transmit or reflect the image recording area of the image recording material and detect the visible light or the invisible light formed by the imaging lens. In this case, as described in claim 3, the correction unit is configured to correct each of the image information (that is, the visible image information and the invisible image information, or the visible image information and the invisible image information for each of a plurality of wavelength ranges: the same applies hereinafter). As a difference, it is preferable to correct the displacement of the pixel position due to the chromatic aberration of magnification or distortion of the imaging lens.

【0022】この補正は、例えば結像レンズに関連する
光学特性である倍率色収差又は歪曲収差、或いは倍率色
収差又は歪曲収差に起因する可視画像情報と非可視画像
情報の画素位置のずれを予め測定しておき、画素位置の
ずれの補正に用いることで実現できる。これにより、例
えば結像レンズとして、非可視域まで倍率色収差や歪曲
収差が抑制された高価な結像レンズを用いることなく、
結像レンズの倍率色収差又は歪曲収差に起因する画素位
置のずれを解消することができる。
This correction is performed by measuring in advance, for example, the chromatic aberration of magnification or distortion, which is an optical characteristic related to the imaging lens, or the deviation between the pixel positions of the visible image information and the invisible image information caused by the chromatic aberration of magnification or distortion. It can be realized by using it for correcting the pixel position shift. Thereby, for example, without using an expensive imaging lens in which chromatic aberration of magnification and distortion are suppressed up to the non-visible range as an imaging lens,
The displacement of the pixel position due to the chromatic aberration of magnification or the distortion of the imaging lens can be eliminated.

【0023】従って、請求項3の発明によれば、結像レ
ンズの倍率色収差又は歪曲収差に起因する各画像情報の
画素位置のずれ(各画像情報が表す画像の各画素の、実
際の画像上での位置のずれ)により、画像の欠陥部の検
出に際して欠陥部の範囲が誤検出されたり、欠陥部の修
正に際して実際の欠陥部とずれた範囲が誤修正されるこ
とを防止することができる。
Therefore, according to the third aspect of the present invention, the displacement of the pixel position of each image information due to the chromatic aberration of magnification or distortion of the imaging lens (the position of each pixel of the image represented by each image information on the actual image) Misalignment of the image) can be prevented from being erroneously detected at the time of detection of a defective portion of an image, or from being erroneously corrected at the time of correction of a defective portion. .

【0024】また、第1検出手段が第1の光電変換素子
によって可視光を検出すると共に、第2の検出手段が第
1の光電変換素子と異なる第2の光電変換素子によって
非可視光を検出する構成、すなわち第1検出手段と第2
検出手段が異なる光電変換素子によって可視光又は非可
視光を検出する構成である場合、請求項4に記載したよ
うに、補正手段は、各画像情報の差異として、第1の光
電変換素子と第2の光電変換素子の配置位置の相違に起
因する画素位置のずれを補正することが好ましい。
Further, the first detecting means detects the visible light by the first photoelectric conversion element, and the second detecting means detects the invisible light by the second photoelectric conversion element different from the first photoelectric conversion element. That is, the first detecting means and the second
In a case where the detecting means is configured to detect the visible light or the invisible light by using different photoelectric conversion elements, as described in claim 4, the correcting means determines the difference between each image information as the first photoelectric conversion element and the second photoelectric conversion element. It is preferable to correct the displacement of the pixel position due to the difference in the arrangement position of the two photoelectric conversion elements.

【0025】この補正は、例えばセンサに関連する光学
特性である第1の光電変換素子と第2の光電変換素子の
配置位置の相違、或いは該配置位置の相違に起因する各
画像情報の画素位置のずれを予め測定しておき、画素位
置のずれの補正に用いることで実現できる。これによ
り、第1の光電変換素子と第2の光電変換素子の配置位
置の相違に起因する画素位置のずれを解消することがで
きる。
This correction is performed by, for example, a difference in the arrangement position of the first photoelectric conversion element and the second photoelectric conversion element, which is an optical characteristic related to the sensor, or a pixel position of each image information caused by the difference in the arrangement position. Can be realized by measuring the shift in advance and using it for correcting the shift in the pixel position. Thus, it is possible to eliminate a pixel position shift caused by a difference in the arrangement position of the first photoelectric conversion element and the second photoelectric conversion element.

【0026】従って、請求項4の発明によれば、第1の
光電変換素子と第2の光電変換素子の配置位置の相違に
起因する画素位置のずれにより、画像の欠陥部の検出に
際して欠陥部の範囲が誤検出されたり、欠陥部の修正に
際して実際の欠陥部とずれた範囲が誤修正されることを
防止することができる。なお、請求項4の発明におい
て、第1の光電変換素子と第2の変換素子は別体であっ
てもよいし、一体化されていてもよい。
Therefore, according to the fourth aspect of the present invention, when a defective portion of an image is detected due to a pixel position shift caused by a difference in arrangement position between the first photoelectric conversion element and the second photoelectric conversion element, Can be prevented from being erroneously detected, or a range deviated from an actual defective portion when a defective portion is corrected. In the invention of claim 4, the first photoelectric conversion element and the second conversion element may be separate bodies or may be integrated.

【0027】また、第1検出手段及び第2の検出手段
が、画像記録材料の画像記録領域を透過又は反射しかつ
結像レンズによって結像された可視光又は非可視光を検
出する構成である場合、請求項5に記載したように、補
正手段は、各画像情報の差異として、結像レンズの焦点
距離の波長依存性に起因する、各画像情報が表す画像の
鮮鋭度の差異を補正することが好ましい。
Further, the first detecting means and the second detecting means transmit or reflect the image recording area of the image recording material and detect the visible light or the invisible light formed by the imaging lens. In this case, as described in claim 5, the correction unit corrects a difference in sharpness of an image represented by each piece of image information due to a wavelength dependency of a focal length of the imaging lens as a difference between pieces of image information. Is preferred.

【0028】この補正は、例えば結像レンズに関連する
光学特性である波長毎の焦点距離、或いは焦点距離の波
長依存性に起因する、各画像情報が表す画像の鮮鋭度の
差異を予め測定しておき、鮮鋭度の補正に用いることで
実現できる。これにより、結像レンズの焦点距離の波長
依存性に起因する鮮鋭度の差異を解消することができ
る。従って、請求項5の発明によれば、結像レンズの波
長依存性に起因する鮮鋭度の差異により、画像の欠陥部
の検出に際して欠陥部の範囲が誤検出されたり、欠陥部
の修正に際して修正強度が不適正に設定されることで、
例えば画像中に不必要なエッジが生ずる等のように欠陥
部の修正が不適正になることを防止することができる。
For this correction, for example, a difference in sharpness of an image represented by each piece of image information due to a focal length for each wavelength, which is an optical characteristic related to the imaging lens, or a wavelength dependence of the focal length is measured in advance. It can be realized by using it for correction of sharpness. This makes it possible to eliminate the difference in sharpness caused by the wavelength dependence of the focal length of the imaging lens. Therefore, according to the invention of claim 5, due to the difference in sharpness caused by the wavelength dependence of the imaging lens, the range of the defective portion is erroneously detected when the defective portion of the image is detected, or the defective portion is corrected when the defective portion is corrected. By setting the strength incorrectly,
For example, it is possible to prevent improper correction of a defective portion such as occurrence of an unnecessary edge in an image.

【0029】また第2の検出手段が、非可視光として、
可視域を一部含む波長域の光を画像記録領域に照射する
構成である場合、請求項6に記載したように、補正手段
は、各画像情報の差異として、可視域を一部含む波長域
の光が非可視光として照射されることに起因する第2検
出手段による非可視光の検出光量の変化を補正すること
が好ましい。
Further, the second detecting means may detect the invisible light as
In the case where the image recording area is configured to irradiate light in a wavelength range partially including the visible range to the image recording area, as a difference between the respective pieces of image information, the correction unit may determine the wavelength range partially including the visible range. It is preferable to correct the change in the amount of invisible light detected by the second detection means due to the irradiation of the light as invisible light.

【0030】この補正は、例えば非可視光の波長域に関
連する光学特性である非可視光の分光光量分布(又は非
可視光に含まれる可視域の波長の光の割合)、或いは非
可視光の波長域が可視域を一部含んでいることに起因す
る第2の検出手段による非可視光の検出光量の変化を予
め測定しておき、非可視光の検出光量の補正に用いるこ
とで実現できる。これにより、非可視光の波長域が可視
域を一部含んでいることに起因する非可視光の検出光量
の変化によって、画像の欠陥部の検出に際して欠陥部の
範囲が誤検出されたり、欠陥部の修正に際して修正強度
が不適正に設定されることで欠陥部の修正が不適正にな
ることを防止することができる。
This correction can be performed, for example, by distributing the spectral light amount of invisible light (or the ratio of light of visible wavelength included in invisible light), which is an optical characteristic related to the wavelength range of invisible light, or invisible light. Is realized by measuring in advance the change in the amount of invisible light detected by the second detection means due to the wavelength range partially including the visible region, and using it for correction of the amount of invisible light detected. it can. As a result, the range of the defective portion is erroneously detected when detecting a defective portion of the image due to a change in the detected light amount of the non-visible light due to the wavelength range of the non-visible light partially including the visible range. It is possible to prevent improper correction of a defective portion by setting improper correction strength when correcting a portion.

【0031】また、請求項7に記載したように、補正手
段は、各画像情報の差異として、画像記録材料を透過又
は反射する光の画像記録材料による減衰度の波長依存性
に起因する、各検出手段による検出光量の差異を補正す
ることが好ましい。この補正は、画像記録材料に関連す
る光学特性として、透過又は反射光の画像記録材料によ
る減衰度の波長依存性、或いは該減衰度の波長依存性に
起因する各検出手段による検出光量の差異を予め測定し
ておき、検出光量の差異の補正に用いることで実現でき
る。
Further, as described in claim 7, the correction means determines that the difference between the respective image information is caused by the wavelength dependence of the attenuation of the light transmitted or reflected by the image recording material by the image recording material. It is preferable to correct the difference in the amount of light detected by the detecting means. This correction includes, as optical characteristics related to the image recording material, the wavelength dependence of the attenuation of the transmitted or reflected light by the image recording material, or the difference in the amount of light detected by each detecting means due to the wavelength dependence of the attenuation. It can be realized by measuring in advance and using it for correcting the difference in the detected light amount.

【0032】これにより、透過又は反射光の画像記録材
料による減衰度の波長依存性に起因する検出光量の差異
によって、画像の欠陥部の検出に際して欠陥部の範囲が
誤検出されたり、欠陥部の修正に際して修正強度が不適
正に設定されることで欠陥部の修正が不適正になること
を防止することができる。
As a result, due to the difference in the detected light amount due to the wavelength dependence of the attenuation of the transmitted or reflected light by the image recording material, the range of the defective portion may be erroneously detected when the defective portion of the image is detected, or the defective portion may be detected. Improper setting of the correction strength at the time of correction can prevent incorrect correction of the defective portion.

【0033】請求項9記載の発明に係る画像処理方法
は、画像記録材料の画像記録領域に可視光を照射し前記
画像記録領域を透過又は反射した可視光を第1検出手段
によって検出することで得られた可視画像情報、及び前
記画像記録領域に非可視光を照射し前記画像記録領域を
透過又は反射した非可視光を第2検出手段によって検出
することで得られた非可視画像情報を取得し、前記可視
画像情報及び前記非可視画像情報の少なくとも一方に対
し、光学特性に起因する前記双方の情報の差異を補正す
るので、請求項1の発明と同様に、装置の高コスト化を
招くことなく欠陥部の修正精度を向上させることが可能
となる。
In the image processing method according to the ninth aspect of the present invention, the image recording area of the image recording material is irradiated with visible light, and the visible light transmitted or reflected by the image recording area is detected by the first detecting means. Obtain the obtained visible image information and the invisible image information obtained by irradiating the image recording area with invisible light and detecting the invisible light transmitted or reflected by the image recording area by the second detection unit. Then, a difference between the at least one of the visible image information and the non-visible image information due to the optical characteristics is corrected, thereby increasing the cost of the apparatus as in the first aspect of the present invention. It is possible to improve the accuracy of repairing a defective portion without any problem.

【0034】請求項10記載の発明に係る記録媒体は、
画像記録材料の画像記録領域に可視光を照射し前記画像
記録領域を透過又は反射した可視光を第1検出手段によ
って検出することで得られた可視画像情報、及び前記画
像記録領域に非可視光を照射し前記画像記録領域を透過
又は反射した非可視光を第2検出手段によって検出する
ことで得られた非可視画像情報を取得する第1のステッ
プ、及び、前記可視画像情報及び前記非可視画像情報の
少なくとも一方に対し、光学特性に起因する前記双方の
情報の差異を補正する第2のステップを含む処理をコン
ピュータに実行させるためのプログラムが記録されてい
る。
[0034] The recording medium according to claim 10 is:
Visible image information obtained by irradiating visible light to the image recording area of the image recording material and detecting visible light transmitted or reflected by the image recording area by the first detection means, and invisible light to the image recording area A first step of acquiring invisible image information obtained by detecting invisible light transmitted or reflected by the image recording area by the second detection unit by irradiating the visible image information, and the visible image information and the invisible A program for causing a computer to execute a process including a second step of correcting a difference between the two types of information due to optical characteristics with respect to at least one of the image information is recorded.

【0035】請求項10記載の発明に係る記録媒体に
は、上記第1及び第2のステップを含む処理、すなわち
コンピュータを、請求項1に記載の画像処理装置として
機能させるためのプログラムが記録されているので、コ
ンピュータが前記記録媒体に記録されたプログラムを読
み出して実行することにより、請求項1の発明と同様
に、低コストな構成で欠陥部の修正精度を向上させるこ
とが可能となる。
According to a tenth aspect of the present invention, a program for causing a computer to function as the image processing apparatus according to the first aspect is recorded on the recording medium according to the tenth aspect of the present invention. Since the computer reads and executes the program recorded on the recording medium, the accuracy of correcting the defective portion can be improved with a low-cost configuration as in the first aspect of the invention.

【0036】[0036]

【発明の実施の形態】以下、図面を参照し、本発明の実
施形態の一例を詳細に説明する。なお、以下では一例と
して、写真フィルムに付いている傷や異物に起因する欠
陥部を修正する場合を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In the following, as an example, a case where a defective portion caused by a scratch or a foreign substance on a photographic film is corrected will be described.

【0037】図1には、本実施形態に係る画像処理シス
テム10が示されている。画像処理システム10は、フ
ィルムスキャナ12、画像処理装置14及びプリンタ1
6が直列に接続されて構成されている。なお、フィルム
スキャナ12及び画像処理装置14は本発明に係る画像
処理装置に対応している。
FIG. 1 shows an image processing system 10 according to the present embodiment. The image processing system 10 includes a film scanner 12, an image processing device 14, and a printer 1.
6 are connected in series. Note that the film scanner 12 and the image processing device 14 correspond to the image processing device according to the present invention.

【0038】フィルムスキャナ12は、写真フィルム
(例えばネガフィルムやリバーサルフィルム)等の写真
感光材料(以下単に写真フィルムと称する)に記録され
ている画像(被写体を撮影後、現像処理されることで可
視化されたネガ画像又はポジ画像)を読み取り、該読み
取りによって得られた画像データを出力するものであ
り、図2にも示すように、ハロゲンランプ等から成り写
真フィルム26に光を照射する光源20を備えている。
なお、光源から射出される光は可視光域の波長の光及び
赤外域の波長の光を各々含んでいる。
The film scanner 12 visualizes an image recorded on a photographic material (hereinafter simply referred to as a photographic film) such as a photographic film (for example, a negative film or a reversal film) by photographing a subject and developing the photographed object. A negative light source or a positive light source image) is read, and image data obtained by the reading is output. As shown in FIG. Have.
The light emitted from the light source includes light having a wavelength in the visible light range and light having a wavelength in the infrared range.

【0039】光源20の光射出側には、写真フィルム2
6に照射する光の光量を調節するための絞り21、フィ
ルタユニット23、写真フィルム26に照射する光を拡
散光とする光拡散ボックス22が順に配置されている。
フィルタユニット23は、入射光のうちRに相当する波
長域の光(R光)のみ透過させるフィルタ23Cと、入
射光のうちGに相当する波長域の光(G光)のみ透過さ
せるフィルタ23Mと、入射光のうちBに相当する波長
域の光(B光)のみ透過させるフィルタ23Yと、入射
光のうち赤外域の光(IR光)を透過させるフィルタ2
3IRの4個のフィルタが、図2矢印A方向に沿って回
転可能とされたターレット23Aに嵌め込まれて構成さ
れている。
On the light exit side of the light source 20, a photographic film 2
A stop 21, a filter unit 23, and a light diffusion box 22 for diffusing the light irradiated on the photographic film 26 are arranged in this order.
The filter unit 23 includes a filter 23C that transmits only light in a wavelength range corresponding to R (R light) of incident light, and a filter 23M that transmits only light in a wavelength range corresponding to G (G light) of incident light. A filter 23Y that transmits only the light in the wavelength range corresponding to B (B light) of the incident light, and a filter 2 that transmits the infrared light (IR light) of the incident light.
Four filters of 3IR are fitted into a turret 23A rotatable in the direction of arrow A in FIG.

【0040】写真フィルム26を挟んで光源20と反対
側には、光軸Lに沿って、写真フィルム26を透過した
光を結像させる結像レンズ28、エリアCCD30が順
に配置されている。エリアCCD30は、各々可視光域
及び赤外域に感度を有する多数のCCDセルがマトリク
ス状に配列されたモノクロのCCDであり、受光面が結
像レンズ28の結像点位置に略一致するように配置され
ている。また、エリアCCD30と結像レンズ28との
間にはシャッタ(図示省略)が設けられている。
On the opposite side of the photographic film 26 from the light source 20, an imaging lens 28 for forming an image of light transmitted through the photographic film 26 and an area CCD 30 are arranged in order along the optical axis L. The area CCD 30 is a monochrome CCD in which a large number of CCD cells each having sensitivity in the visible light region and the infrared region are arranged in a matrix, and the light receiving surface substantially coincides with the imaging point position of the imaging lens 28. Are located. A shutter (not shown) is provided between the area CCD 30 and the imaging lens 28.

【0041】エリアCCD30はCCDドライバ31を
介してスキャナ制御部33に接続されている。スキャナ
制御部33はCPU、ROM(例えば記憶内容を書換え
可能なROM)、RAM及び入出力ポートを備え、これ
らがバス等を介して互いに接続されて構成されている。
スキャナ制御部33はフィルムスキャナ12の各部の動
作を制御する。また、CCDドライバ31はエリアCC
D30を駆動するための駆動信号を生成し、エリアCC
D30の駆動を制御する。
The area CCD 30 is connected to a scanner controller 33 via a CCD driver 31. The scanner control unit 33 includes a CPU, a ROM (for example, a ROM whose storage content is rewritable), a RAM, and an input / output port, which are connected to each other via a bus or the like.
The scanner control unit 33 controls the operation of each unit of the film scanner 12. In addition, the CCD driver 31 has an area CC.
A drive signal for driving D30 is generated, and area CC is generated.
The driving of D30 is controlled.

【0042】写真フィルム26はフィルムキャリア24
(図1参照、図2では図示省略)によって搬送され、画
像の画面中心が光軸Lに一致する位置(読取位置)に位
置決めされる。また、スキャナ制御部33は画像が読取
位置に位置決めされている状態で、フィルタ23IRを
含む全てのフィルタ23が順に光軸L上に位置するよう
にフィルタユニット23のターレット23Aを回転駆動
させると共に、所定の読取条件に対応するエリアCCD
30の電荷蓄積時間をCCDドライバ31へ設定し、絞
り21を前記所定の読取条件に対応する位置へ移動させ
る。
The photographic film 26 is a film carrier 24
(See FIG. 1; not shown in FIG. 2), and is positioned at a position (reading position) where the screen center of the image coincides with the optical axis L. Further, the scanner control unit 33 rotates the turret 23A of the filter unit 23 so that all the filters 23 including the filter 23IR are sequentially positioned on the optical axis L in a state where the image is positioned at the reading position. Area CCD corresponding to predetermined reading conditions
The charge accumulation time of 30 is set in the CCD driver 31, and the diaphragm 21 is moved to a position corresponding to the predetermined reading condition.

【0043】これにより、写真フィルム26上の画像記
録領域に各フィルタ23に対応する波長域(R又はG又
はB又はIR)の光が順に照射され、写真フィルム26
上の画像記録領域を透過した光はエリアCCD30によ
って検出され(詳しくは光電変換され)、透過光量を表
す信号としてエリアCCD30から出力される。エリア
CCD30から出力された信号は、A/D変換器32に
よって透過光量を表すデジタルデータに変換されて画像
処理装置14に入力される。このように、フィルムスキ
ャナ12は本発明に係る第1検出手段及び第2検出手段
としての機能を兼ね備えている。
As a result, the image recording area on the photographic film 26 is irradiated with light in the wavelength range (R, G, B, or IR) corresponding to each filter 23 in order.
The light transmitted through the upper image recording area is detected by the area CCD 30 (more specifically, subjected to photoelectric conversion), and is output from the area CCD 30 as a signal representing the amount of transmitted light. The signal output from the area CCD 30 is converted into digital data representing the amount of transmitted light by the A / D converter 32 and input to the image processing device 14. As described above, the film scanner 12 has both functions as the first detecting means and the second detecting means according to the present invention.

【0044】なお、R、G、Bの各波長域の光の透過光
量は、画像記録領域に記録されている画像のR,G,B
濃度に応じて変化する(写真フィルム26に傷や異物が
付いていた場合にはこれらによっても変化するが、IR
光の透過光量は画像濃度の影響を受けず、傷や異物等の
みによって変化する)。従って、R、G、Bの各波長域
の透過光を光電変換することは画像を読み取ることに相
当し、以下では、画像処理装置14に入力されるR、
G、B、IRの各波長域のデータのうちIRを除くR、
G、Bの各データを画像データと称する。なお、R,
G,Bの画像データは本発明に係る可視画像情報(より
詳しくは請求項2に記載の複数の波長域毎の可視画像情
報)に対応しており、IRデータは本発明に係る非可視
画像情報に対応している。
The amount of transmitted light in each of the R, G, and B wavelength ranges depends on the R, G, and B of the image recorded in the image recording area.
It changes according to the density (if the photographic film 26 has scratches or foreign matter, it also changes due to these.
The amount of transmitted light is not affected by the image density and changes only due to scratches or foreign matter. Therefore, photoelectrically converting the transmitted light in each of the R, G, and B wavelength ranges corresponds to reading an image. In the following, R, G, and B input to the image processing device 14 will be described.
R, excluding IR, of data of each wavelength range of G, B, IR
Each data of G and B is called image data. Note that R,
The G and B image data correspond to the visible image information according to the present invention (more specifically, the visible image information for each of a plurality of wavelength ranges according to claim 2), and the IR data corresponds to the invisible image according to the present invention. It corresponds to information.

【0045】また、一般に写真フィルムのフィルムべー
スは、透過光の波長が長くなるに従って屈折率が小さく
なる特性を有しており、IR光の波長が長波長側に偏倚
するに従って、写真フィルムに付いている傷や異物に起
因する欠陥部の検出精度は低下する。本実施形態では、
IR光による欠陥部の検出精度を確保するために、フィ
ルタ23IRとして、例として図3にも示すように、フ
ィルタ23IRを透過して写真フィルムに照射されるI
R光の波長域が可視域側(短波長側)に偏倚する分光特
性を有するフィルタを用いており、IR光として写真フ
ィルムに照射される光には可視域の波長の光が含まれて
いる。
Generally, the film base of a photographic film has a characteristic that the refractive index decreases as the wavelength of transmitted light increases, and as the wavelength of IR light shifts toward the longer wavelength side, the photographic film The detection accuracy of a defective portion caused by a scratch or a foreign substance attached to the device decreases. In this embodiment,
In order to ensure the accuracy of detecting a defective portion by IR light, as shown in FIG. 3, for example, the filter 23IR is transmitted through the filter 23IR and irradiated onto a photographic film.
A filter having a spectral characteristic in which the wavelength range of the R light is deviated to the visible range side (short wavelength side) is used, and the light irradiated to the photographic film as the IR light includes light of the visible range wavelength. .

【0046】一方、画像処理装置14のスキャナ補正部
36は、入力された画像データ(及びIRデータ)に対
し、暗補正、濃度変換、シェーディング補正等の各種の
補正処理を順に行う。スキャナ補正部36の出力端はI
/Oコントローラ38の入力端に接続されており、スキ
ャナ補正部36で前記各処理が施された画像データはI
/Oコントローラ38に入力される。I/Oコントロー
ラ38の入力端は、イメージプロセッサ40のデータ出
力端にも接続されており、イメージプロセッサ40から
画像処理(詳細は後述)が行われた画像データが入力さ
れる。
On the other hand, the scanner correction unit 36 of the image processing device 14 sequentially performs various correction processes such as dark correction, density conversion, shading correction, and the like on the input image data (and IR data). The output terminal of the scanner correction unit 36 is I
The image data, which is connected to the input terminal of the I / O controller 38 and has been subjected to the above-described processing by the scanner correction unit 36, is
/ O controller 38. An input terminal of the I / O controller 38 is also connected to a data output terminal of the image processor 40, and receives image data subjected to image processing (details will be described later) from the image processor 40.

【0047】また、I/Oコントローラ38の入力端は
制御部42にも接続されている。制御部42は拡張スロ
ット(図示省略)を備えており、この拡張スロットに
は、デジタルスチルカメラに装填可能なPCカードやI
Cカード(以下、これらをデジタルカメラカードと総称
する)、CD−ROMやMO、CD−R等の情報記憶媒
体に対してデータ(或いはプログラム)の読出し/書込
みを行うドライバ(図示省略)や、他の情報処理機器と
通信を行うための通信制御装置が接続される。拡張スロ
ットを介して外部から入力された画像データはI/Oコ
ントローラ38へ入力される。
The input terminal of the I / O controller 38 is also connected to the control unit 42. The control unit 42 has an expansion slot (not shown). The expansion slot includes a PC card or an I / O card that can be loaded into the digital still camera.
A driver (not shown) for reading / writing data (or a program) from / to an information storage medium such as a C card (hereinafter collectively referred to as a digital camera card), a CD-ROM, an MO, and a CD-R; A communication control device for communicating with another information processing device is connected. Image data input from outside via the expansion slot is input to the I / O controller 38.

【0048】I/Oコントローラ38の出力端は、イメ
ージプロセッサ40のデータ入力端及び制御部42に各
々接続されており、更にI/F回路54を介してプリン
タ16に接続されている。I/Oコントローラ38は、
入力された画像データを、出力端に接続された前記各機
器に選択的に出力する。
The output terminal of the I / O controller 38 is connected to the data input terminal of the image processor 40 and the control unit 42, respectively, and further connected to the printer 16 via the I / F circuit 54. The I / O controller 38
The input image data is selectively output to each of the devices connected to the output terminal.

【0049】本実施形態では、写真フィルム26に記録
されている個々の画像に対し、フィルムスキャナ12に
おいて異なる解像度で2回の読み取りを行う。なお、本
実施形態のように読取センサとしてエリアセンサ(エリ
アCCD30)を用いた態様において、読み取りの解像
度の切り替え(各回の読み取りで異なる解像度の画像デ
ータを得ること)は、例えばプレスキャン時もファイン
スキャン時と同一の高解像度で読み取りを行い、得られ
た画像データに対して画素の間引き又は画素の統合等の
後処理を行うか、或いはファインスキャン時にはエリア
センサによって読み取りを複数回行うと共に、各回の読
み取り時にピエゾ素子等のアクチュエータにより画素間
隔の整数分の1に相当する距離だけエリアセンサを移動
させることで実現できる。
In the present embodiment, each image recorded on the photographic film 26 is read twice by the film scanner 12 at different resolutions. In the embodiment using the area sensor (area CCD 30) as the reading sensor as in the present embodiment, switching of the reading resolution (obtaining image data of different resolutions in each reading) is performed, for example, in fine scanning even during pre-scanning. Scanning is performed at the same high resolution as during scanning, and post-processing such as pixel thinning or pixel integration is performed on the obtained image data. The reading can be realized by moving the area sensor by a distance corresponding to an integer fraction of the pixel interval by an actuator such as a piezo element at the time of reading.

【0050】1回目の比較的低解像度での読み取り(プ
レスキャン)では、画像の濃度が非常に低い場合にも、
エリアCCD30で蓄積電荷の飽和が生じないように決
定した読取条件(写真フィルム26に照射する光のR、
G、Bの各波長域毎の光量、エリアCCD30の電荷蓄
積時間)で各画像の読み取りが行われる。なお、本実施
形態ではプレスキャン時にはIR読み取りは行なわな
い。このプレスキャンによって得られたデータ(プレス
キャン画像データ)は、I/Oコントローラ38から制
御部42へ入力される。
In the first reading at a relatively low resolution (pre-scan), even when the image density is very low,
Reading conditions (R, R of light applied to the photographic film 26, determined so as not to cause saturation of accumulated charges in the area CCD 30)
Each image is read based on the amount of light for each of the G and B wavelength ranges and the charge accumulation time of the area CCD 30). In this embodiment, IR reading is not performed at the time of prescan. Data (pre-scan image data) obtained by this pre-scan is input from the I / O controller 38 to the control unit 42.

【0051】制御部42は、CPU46、RAM48、
ROM50(例えば記憶内容を書換え可能なROM)、
入出力ポート52を備え、これらがバスを介して互いに
接続されて構成されている。制御部42は、I/Oコン
トローラ38から入力されたプレスキャン画像データに
基づいて画像の濃度等の画像特徴量を演算し、各画像に
対し、フィルムスキャナ12が比較的高解像度での再度
の読み取り(ファインスキャン)を行う際の読取条件を
決定し、決定した読取条件をフィルムスキャナ12に出
力する。
The control unit 42 includes a CPU 46, a RAM 48,
ROM 50 (for example, a ROM whose storage content can be rewritten),
An input / output port 52 is provided, and these are connected to each other via a bus. The control unit 42 calculates an image feature amount such as image density based on the pre-scan image data input from the I / O controller 38, and for each image, the film scanner 12 re-executes at a relatively high resolution. The reading conditions for reading (fine scan) are determined, and the determined reading conditions are output to the film scanner 12.

【0052】また制御部42は、プレスキャン画像デー
タに基づいて、画像中の主要画像領域(例えば人物の顔
に相当する領域(顔領域))の抽出を含む画像特徴量の演
算を行い、フィルムスキャナ12がファインスキャンを
行うことによって得られる画像データ(ファインスキャ
ン画像データ)に対する各種の画像処理の処理条件を演
算により自動的に決定し(セットアップ演算)、決定し
た処理条件をイメージプロセッサ40へ出力する。
Further, the control unit 42 calculates an image feature amount including extraction of a main image area (for example, an area corresponding to a person's face (face area)) in the image based on the prescanned image data. The scanner 12 automatically determines the processing conditions of various image processing for the image data (fine scan image data) obtained by performing the fine scan by calculation (setup calculation), and outputs the determined processing conditions to the image processor 40. I do.

【0053】なお、制御部42は、フィルムスキャナ1
2から入力されたIRデータに基づいて、画像データが
表す画像中に、写真フィルム26に付いている傷や塵埃
等の異物に起因する欠陥部が生じているか否かを探索す
る機能、イメージプロセッサ40が欠陥部修正処理を行
うためのパラメータを設定する機能を有している。ま
た、制御部42のバスにはディスプレイ43、キーボー
ド44及びマウス(図示省略)が接続されている。
Note that the control unit 42 controls the film scanner 1
A function for searching whether or not a defective portion caused by a foreign matter such as a scratch or dust attached to the photographic film 26 is present in an image represented by the image data, based on the IR data input from Step 2 Reference numeral 40 has a function of setting parameters for performing the defective portion correcting process. A display 43, a keyboard 44, and a mouse (not shown) are connected to the bus of the control unit 42.

【0054】制御部42は、演算した画像処理の処理条
件に基づき、ファインスキャン画像データを対象として
イメージプロセッサ40で行われる画像処理と等価な画
像処理をプレスキャン画像データに対して行ってシミュ
レーション画像データを生成する。そして、生成したシ
ミュレーション画像データを、ディスプレイ43に画像
を表示するための信号に変換し、該信号に基づいてディ
スプレイ43にシミュレーション画像を表示する。ま
た、表示されたシミュレーション画像に対しオペレータ
によって画質等の検定が行われ、検定結果として処理条
件の修正を指示する情報がキーボード44やマウスを介
して入力されると、入力された情報に基づいて画像処理
の処理条件の再演算等を行う。
The control unit 42 performs image processing equivalent to the image processing performed by the image processor 40 on the fine scan image data on the pre-scan image data based on the calculated processing conditions of the image processing. Generate data. Then, the generated simulation image data is converted into a signal for displaying an image on the display 43, and the simulation image is displayed on the display 43 based on the signal. In addition, when the operator checks the displayed simulation image for image quality and the like, and information indicating correction of processing conditions is input as a result of the inspection via the keyboard 44 or the mouse, the operator performs a test based on the input information. Recalculation of the processing conditions of the image processing is performed.

【0055】一方、フィルムスキャナ12で画像に対し
てファインスキャンが行われることによってI/Oコン
トローラ38に入力された画像データ(ファインスキャ
ン画像データ)は、I/Oコントローラ38からイメー
ジプロセッサ40へ入力される。
On the other hand, the image data (fine scan image data) input to the I / O controller 38 by performing the fine scan on the image by the film scanner 12 is input from the I / O controller 38 to the image processor 40. Is done.

【0056】イメージプロセッサ40は、階調変換や色
変換を含む色・濃度補正処理、画素密度変換処理、画像
の超低周波輝度成分の階調を圧縮するハイパートーン処
理、粒状を抑制しながらシャープネスを強調するハイパ
ーシャープネス処理等の各種の画像処理を行う画像処理
回路を各々備えており、入力された画像データに対し、
制御部42によって各画像毎に決定されて通知された処
理条件に従って種々の画像処理を行う。また、イメージ
プロセッサ40は制御部42によって設定されたパラメ
ータに従って欠陥部修正処理を行う機能を有している。
The image processor 40 performs color / density correction processing including gradation conversion and color conversion, pixel density conversion processing, hypertone processing for compressing the gradation of an ultra-low frequency luminance component of an image, and sharpness while suppressing graininess. Image processing circuits for performing various image processing such as hyper-sharpness processing for enhancing the image data.
Various image processing is performed according to the processing conditions determined and notified for each image by the control unit 42. Further, the image processor 40 has a function of performing a defective portion correcting process according to the parameters set by the control unit 42.

【0057】イメージプロセッサ40で画像処理が行わ
れた画像データを印画紙への画像の記録に用いる場合に
は、イメージプロセッサ40で画像処理が行われた画像
データは、I/Oコントローラ38からI/F回路54
を介し記録用画像データとしてプリンタ16へ出力され
る。また、画像処理後の画像データを画像ファイルとし
て外部へ出力する場合は、I/Oコントローラ38から
制御部42へ画像データが出力される。これにより、制
御部42では、外部への出力用としてI/Oコントロー
ラ38から入力された画像データを、拡張スロットを介
して画像ファイルとして外部(前記ドライバや通信制御
装置等)に出力する。
When the image data processed by the image processor 40 is used for recording an image on photographic paper, the image data processed by the image processor 40 is transmitted from the I / O controller 38 to the I / O controller 38. / F circuit 54
Is output to the printer 16 as image data for recording via the. When the image data after the image processing is output to the outside as an image file, the image data is output from the I / O controller 38 to the control unit 42. As a result, the control unit 42 outputs the image data input from the I / O controller 38 for output to the outside to the outside (the driver, the communication control device, or the like) as an image file via the expansion slot.

【0058】プリンタ16は、画像メモリ58、R,
G,Bのレーザ光源60、該レーザ光源60の作動を制
御するレーザドライバ62を備えている。画像処理装置
14から入力された記録用画像データは画像メモリ58
に一旦記憶された後に読み出され、レーザ光源60から
射出されるR,G,Bのレーザ光の変調に用いられる。
レーザ光源60から射出されたレーザ光は、ポリゴンミ
ラー64、fθレンズ66を介して印画紙68上を走査
され、印画紙68に画像が露光記録される。画像が露光
記録された印画紙68は、プロセッサ部18へ送られて
発色現像、漂白定着、水洗、乾燥の各処理が施される。
これにより、印画紙68に露光記録された画像が可視化
される。
The printer 16 includes an image memory 58, R,
G and B laser light sources 60 and a laser driver 62 for controlling the operation of the laser light sources 60 are provided. The recording image data input from the image processing device 14 is stored in an image memory 58.
Is read out after being stored once, and is used for modulating the R, G, B laser light emitted from the laser light source 60.
The laser light emitted from the laser light source 60 is scanned on a printing paper 68 via a polygon mirror 64 and an fθ lens 66, and an image is exposed and recorded on the printing paper 68. The photographic paper 68 on which the image has been exposed and recorded is sent to the processor section 18 and subjected to color development, bleach-fixing, washing and drying.
Thus, the image recorded on the printing paper 68 by exposure is visualized.

【0059】次に本実施形態の作用として、スキャナ1
2から画像処理装置14にファインスキャン画像データ
が入力されると制御部42で実行される欠陥部修正値決
定処理について説明する。この欠陥部修正値決定処理
は、請求項9に記載の画像処理方法が適用された処理で
あり、制御部42のCPU46により、欠陥部修正値決
定プログラムが実行されることにより実現される。欠陥
部修正値決定プログラムは、その他の処理をCPU46
で実行させるためのプログラムと共に、当初は、情報記
憶媒体72(図1参照)に記憶されている。なお、図1
では情報記憶媒体72をフロッピーディスクとして示し
ているが、CD−ROMやメモリカード等で構成しても
よい。
Next, as an operation of the present embodiment, the scanner 1
Next, a description will be given of a defective portion correction value determination process performed by the control unit 42 when the fine scan image data is input to the image processing apparatus 14 from the second unit. This defective part correction value determination processing is processing to which the image processing method according to claim 9 is applied, and is realized by the CPU 46 of the control unit 42 executing a defective part correction value determination program. The defective part correction value determination program executes other processing by the CPU 46.
The program is initially stored in the information storage medium 72 (see FIG. 1) together with the program to be executed. FIG.
Although the information storage medium 72 is shown as a floppy disk in the embodiment, it may be constituted by a CD-ROM, a memory card, or the like.

【0060】制御部42に接続された情報読出装置(図
示省略)に情報記憶媒体72が装填され、情報記憶媒体
72から画像処理装置14へのプログラムの移入(イン
ストール)が指示されると、情報読出装置によって情報
記憶媒体72から欠陥部修正値決定プログラム等が読み
出され、記憶内容を書換え可能なROM50に記憶され
る。そして、欠陥部修正値決定処理を実行すべきタイミ
ングが到来すると、ROM50から欠陥部修正値決定プ
ログラムが読み出され、該プログラムがCPU46によ
って実行される。これにより、画像処理装置14は請求
項1に記載の画像処理装置として機能する。このよう
に、欠陥部修正値決定プログラム等を記憶している情報
記憶媒体72は請求項10に記載の記録媒体に対応して
いる。
When an information storage medium 72 is loaded in an information reading device (not shown) connected to the control unit 42 and transfer of a program (installation) from the information storage medium 72 to the image processing apparatus 14 is instructed, the information The reading device reads a defective part correction value determination program or the like from the information storage medium 72 and stores the stored content in the rewritable ROM 50. When the timing to execute the defective part correction value determination processing comes, the defective part correction value determination program is read from the ROM 50 and executed by the CPU 46. Thus, the image processing device 14 functions as the image processing device according to the first aspect. As described above, the information storage medium 72 storing the defective portion correction value determination program and the like corresponds to the recording medium according to claim 10.

【0061】以下、欠陥部修正値決定処理について、図
4のフローチャートを参照して説明する。ステップ10
0では、制御部42に入力された単一の画像(処理対象
の画像)のR,G,Bの画像データ及びIRデータをR
AM48等に取り込む。ステップ100は本発明の取得
手段に対応している。また、次のステップ102〜ステ
ップ118は本発明の補正手段に対応している。
Hereinafter, the defective part correction value determination processing will be described with reference to the flowchart of FIG. Step 10
0, the R, G, and B image data and IR data of a single image (image to be processed) input to the control unit 42 are represented by R
Import to AM48 and so on. Step 100 corresponds to the acquisition unit of the present invention. Further, the following steps 102 to 118 correspond to the correcting means of the present invention.

【0062】すなわち、ステップ102では、フィルム
スキャナ12の結像レンズ28の歪曲収差・倍率色収差
を補正するための補正データをROM50から取り込
む。本実施形態に係る歪曲収差補正データは、結像レン
ズ28の歪曲収差に起因する画像の幾何学的歪みを補正
する歪曲収差補正に用いるデータであり、結像レンズ2
8の歪曲収差に起因する画像上の各位置での画素位置の
変化方向及び変化量を測定した結果に基づいて設定され
ている。
That is, in step 102, correction data for correcting distortion and chromatic aberration of magnification of the imaging lens 28 of the film scanner 12 is fetched from the ROM 50. The distortion correction data according to the present embodiment is data used for distortion correction for correcting a geometric distortion of an image caused by distortion of the imaging lens 28, and is used for the imaging lens 2.
8 is set based on the measurement result of the change direction and the change amount of the pixel position at each position on the image caused by the distortion.

【0063】本実施形態では基準波長域としてGを採用
し、歪曲収差補正データとして、結像レンズ28の歪曲
収差に起因する画像上の各位置におけるGについての画
素位置の変化量(歪曲収差量)の測定結果をx方向とy
方向に分解し、画像上の各位置における歪曲収差量を、
xP yP 座標系(画像の中心位置(xP0,yP0)を原点
(=(0,0))として画像上の任意の画素を座標値(x
P ,yP )で表す座標系(図5(B)参照))を基準とし
て、x方向の歪曲収差量Dx(xP ,yP )及びy方向
の歪曲収差量Dy(xP ,yP )で表すデータを用いて
いる。
In the present embodiment, G is adopted as the reference wavelength range, and the amount of change in the pixel position (the amount of distortion) of G at each position on the image caused by the distortion of the imaging lens 28 is used as distortion correction data. ) Measurement results in x direction and y
In the direction, and calculate the amount of distortion at each position on the image,
x P y P coordinate system (the center position of the image (x P0, y P0) the origin (= (0, 0)) coordinates of any pixel on the image as (x
P, y P) coordinate system represented by the reference (FIG. 5 (B))) as a reference, a distortion amount Dx (x P in the x-direction, y P) and y-direction distortion amount Dy (x P, y P ) Is used.

【0064】また、倍率色収差補正データは、結像レン
ズ28の倍率色収差に起因する画像の色ずれを補正する
倍率色収差補正に用いるデータであり、結像レンズ28
の倍率色収差に起因する画像上の各位置での基準波長域
のデータが表す画像の画素位置に対する非基準波長域の
データが表す画像の画素位置の変化方向及び変化量を測
定した結果に基づいて設定されている。
The chromatic aberration of magnification correction data is used for correcting chromatic aberration of magnification for correcting a color shift of an image caused by chromatic aberration of magnification of the imaging lens 28.
Based on the result of measuring the direction and amount of change in the pixel position of the image represented by the data in the non-reference wavelength range with respect to the pixel position of the image represented by the data in the reference wavelength region at each position on the image due to the chromatic aberration of magnification. Is set.

【0065】本実施形態では、非基準波長域としてR,
B及びIRを採用し、Rの倍率色収差補正データとし
て、結像レンズ28の倍率色収差に起因する画像上の各
位置における、Gに対するRの画素位置の変化量(倍率
色収差量)の測定結果をx方向とy方向に分解し、画像
上の各位置におけるRの倍率色収差量を、xP yP 座標
系を基準として、Rのx方向の倍率色収差量ΔRx(x
P ,yP )及びRのy方向の倍率色収差量ΔRy
(xP ,yP )で表すデータを用いている。
In this embodiment, R, R
B and IR are adopted, and as the magnification chromatic aberration correction data of R, a measurement result of a change amount (magnification chromatic aberration amount) of the pixel position of R with respect to G at each position on the image caused by the magnification chromatic aberration of the imaging lens 28 is obtained. decomposing the x and y directions, the lateral chromatic aberration amount of R at each position on the image, x P y P as the coordinate system relative to the magnification chromatic aberration amount in the x direction R DerutaRx (x
P , y P ) and the amount of lateral chromatic aberration ΔRy of R in the y direction
(X P, y P) is using the data represented by.

【0066】また、Bの倍率色収差補正データとして、
結像レンズ28の倍率色収差に起因する画像上の各位置
における、Gに対するBの画素位置の変化量(倍率色収
差量)の測定結果をx方向とy方向に分解し、画像上の
各位置におけるBの倍率色収差量を、xP yP 座標系を
基準として、Bのx方向の倍率色収差量ΔBx(xP,
yP )及びBのy方向の倍率色収差量ΔBy(xP ,y
P )で表すデータを用いている。
Further, as magnification chromatic aberration correction data of B,
At each position on the image caused by the chromatic aberration of magnification of the imaging lens 28, the measurement result of the change amount of the pixel position of B with respect to G (the amount of chromatic aberration of magnification) is decomposed in the x direction and the y direction. the magnification chromatic aberration amount of B, x P y P coordinate system as a reference, magnification chromatic aberration amount in the x direction B ΔBx (x P,
y P ) and the lateral chromatic aberration amount ΔBy (x P , y) of B in the y direction.
P ) is used.

【0067】更に、IRの倍率色収差補正データとし
て、結像レンズ28の倍率色収差に起因する画像上の各
位置における、Gに対するIRの画素位置の変化量(倍
率色収差量)の測定結果をx方向とy方向に分解し、画
像上の各位置におけるIRの倍率色収差量を、xP yP
座標系を基準として、IRのx方向の倍率色収差量ΔI
Rx(xP ,yP )及びIRのy方向の倍率色収差量Δ
IRy(xP ,yP )で表すデータを用いている。
Further, as the magnification chromatic aberration correction data for IR, the measurement result of the amount of change in the pixel position of IR with respect to G (magnitude of chromatic aberration of magnification) at each position on the image caused by the chromatic aberration of magnification of the imaging lens 28 is taken in the x direction. And the y direction, and the amount of chromatic aberration of magnification at each position on the image is represented by x P y P
With respect to the coordinate system, the chromatic aberration of magnification ΔI in the x direction of IR
Rx (x P , y P ) and IR lateral chromatic aberration amount Δ in the y direction
IRy (x P, y P) is using the data represented by.

【0068】次のステップ104では、ROM50から
取り込んだ歪曲収差補正データ及び倍率色収差補正デー
タに基づき、R,G,B,IRの各データに対し、歪曲
収差補正・倍率色収差補正をy方向及びx方向について
各々行う。
In the next step 104, distortion correction and magnification chromatic aberration correction are performed in the y direction and x direction for each of R, G, B, and IR data based on the distortion aberration correction data and the magnification chromatic aberration correction data fetched from the ROM 50. Perform each of the directions.

【0069】すなわち、まず画像の中心位置を基準とし
て、画像データの各画素の座標値(x,y)をxP yP
座標系(図5(B)参照)での座標値(xP ,yP )に
変換(xP =x−xP0、yP =y−yP0:すなわち規格
化)した後に、規格化後の座標値が(xP ,yP )の画
素に対し、座標(xP ,yP )をキーにして、ステップ
102で取り込んだ歪曲収差補正データの中から対応す
るy方向についての歪曲収差量Dy(xP ,yP )を検
索し、座標(xP ,yP )の画素の各データR(xP ,
yP )、G(xP ,yP )、B(xP ,yP )、IR
(xP ,yP )の座標を次式に従って変換することを、
全ての画素について行う。 R(xP ,yPR')←R(xP ,yP ) G(xP ,
yPG)←G(xP ,yP ) B(xP ,yPB')←B(xP ,yP )IR(xP ,y
PIR')←IR(xP ,yP) 但し、yPR’=yPG=yPB’=yPIR’=yP +Dy
(xP ,yP )
That is, first, with reference to the center position of the image, the coordinate value (x, y) of each pixel of the image data is represented by x P y P
Coordinate system coordinate values in (see FIG. 5 (B) refer) (x P, y P) converted into (x P = x-x P0 , y P = y-y P0: ie normalized) after, after normalization the coordinate values with respect to pixels (x P, y P), the coordinates (x P, y P) to the key, distortion amount for the corresponding y-direction from the distortion correction data fetched in step 102 dy (x P, y P) searching the coordinates (x P, y P) each data R (x P pixels of,
y P ), G (x P , y P ), B (x P , y P ), IR
Converting the coordinates of (x P , y P ) according to the following equation:
This is performed for all pixels. R (x P, y PR ' ) ← R (x P, y P) G (x P,
y PG) ← G (x P , y P) B (x P, y PB ') ← B (x P, y P) IR (x P, y
PIR ') ← IR (x P , y P ) where y PR ' = y PG = y PB '= y PIR ' = y P + Dy
(X P, y P)

【0070】また、規格化後の座標値が(xP ,yP )
の画素(y方向についての歪曲収差補正後の座標値が
(xP ,yPR')の画素)のRのデータに対し、座標(x
P ,y P )をキーにして、ステップ102で取り込んだ
Rの倍率色収差補正データの中から、対応するRのy方
向についての倍率色収差量ΔRy(xP ,yP )を検索
し、y方向についての歪曲収差補正後の座標値が
(xP ,yPR')の画素のRのデータR(xP ,yPR')の
座標を次式に従って変換することを、全ての画素につい
て行う。R(xP ,yPR)←R(xP ,yPR') 但し、yPR=yPR’+ΔRy(xP ,yP )=yP +D
y(xP ,yP )+ΔRy(xP ,yP )
The coordinate value after the standardization is (xP, YP)
Pixel (the coordinate value after the distortion correction in the y direction is
(XP, YPRThe coordinates (x
P, Y P) As a key and imported in step 102
From the magnification chromatic aberration correction data of R, the corresponding y direction of R
Magnification chromatic aberration amount ΔRy (xP, YP)search for
Then, the coordinate value after the distortion correction in the y direction is
(XP, YPR') Pixel R data R (xP, YPR')of
The conversion of coordinates according to the following equation is required for all pixels.
Do it. R (xP, YPR) ← R (xP, YPR') Where yPR= YPR′ + ΔRy (xP, YP) = YP+ D
y (xP, YP) + ΔRy (xP, YP)

【0071】また、規格化後の座標値が(xP ,yP )
の画素のBのデータに対し、座標(xP ,yP )をキー
にして、ステップ102で取り込んだBの倍率色収差補
正データの中から、対応するBのy方向についての倍率
色収差量ΔBy(xP ,yP)を検索し、y方向につい
ての歪曲収差補正後の座標値が(xP ,yPB')の画素の
BのデータB(xP ,yPB')の座標を次式に従って変換
することを、全ての画素について行う。 B(xP ,yPB)←B(xP ,yPB') 但し、yPB=yPB’+ΔBy(xP ,yP )=yP +D
y(xP ,yP )+ΔBy(xP ,yP )
The coordinate values after the standardization are (x P , y P )
With respect to the B data of the pixel No., using the coordinates (x P , y P ) as a key, the chromatic aberration of magnification ΔBy ( x P , y P ) are searched, and the coordinates of the B data B (x P , y PB ′) of the pixel having the coordinate value (x P , y PB ′) after the distortion correction in the y direction are expressed by the following equation. Is performed for all pixels. B (x P, y PB) ← B (x P, y PB ') where, y PB = y PB' + ΔBy (x P, y P) = y P + D
y (x P, y P) + ΔBy (x P, y P)

【0072】更に、規格化後の座標値が(xP ,yP )
の画素のIRのデータに対し、座標(xP ,yP )をキ
ーにして、ステップ102で取り込んだIRの倍率色収
差補正データの中から、対応するIRのy方向について
の倍率色収差量ΔIRy(x P ,yP )を検索し、y方
向についての歪曲収差補正後の座標値が(xP ,
yPI R')の画素のIRのデータIR(xP ,yPIR')の座
標を次式に従って変換することを、全ての画素について
行う。 IR(xP ,yPIR)←IR(xP ,yPIR') 但し、yPIR=yPIR’+ΔIRy(xP ,yP )=yP
+Dy(xP ,yP )+ΔIRy(xP ,yP )
Further, the coordinate value after the standardization is (xP, YP)
The coordinates (xP, YP)
And the color magnification of the IR captured in step 102
From the difference correction data, the corresponding IR y-direction
Magnification chromatic aberration amount ΔIRy (x P, YP) Search and y direction
The coordinate value of the direction after the distortion correction is (xP,
yPI R') IR data IR (xP, YPIR') Seat
The conversion of the target according to the following equation is performed for all pixels.
Do. IR (xP, YPIR) ← IR (xP, YPIR') Where yPIR= YPIR′ + ΔIRy (xP, YP) = YP
+ Dy (xP, YP) + ΔIRy (xP, YP)

【0073】上記により、y方向についての歪曲収差補
正、及びy方向についてのR、B及びIRの倍率色収差
補正が行われ、R,G,B,IRの各データが表す画像
の各画素の位置は各々独立にy方向に各々移動されるこ
とになる。
As described above, correction of distortion in the y direction and correction of chromatic aberration of magnification in the y direction of R, B, and IR are performed, and the position of each pixel of the image represented by each data of R, G, B, and IR is performed. Are independently moved in the y direction.

【0074】次に、画像の各画素のy方向についての本
来の位置(以下、この位置を座標値(xP ,yP0)で表
す)を求める。そして、座標値(xP ,yP0)の位置に
おけるRの値を、歪曲収差補正及び倍率色収差補正を経
たデータR(xP ,yPR)のうち、y方向に沿って座標
値(xP ,yP0)を挟んで隣り合っている2つの位置に
おけるRのデータに基づいて補間演算によって求める。
また、座標値(xP ,yP0)の位置におけるGの値を、
歪曲収差補正及び倍率色収差補正を経たデータG
(xP ,yPG)のうち、y方向に沿って座標値(xP ,
yP0)を挟んで隣り合っている2つの位置におけるGの
データに基づいて補間演算によって求め、座標値
(xP ,yP0)の位置におけるBの値を、歪曲収差補正
及び倍率色収差補正を経たデータB(xP ,yPB)のう
ち、y方向に沿って座標値(xP ,yP0)を挟んで隣り
合っている2つの位置におけるBのデータに基づいて補
間演算によって求め、座標値(xP ,yP0)の位置にお
けるIRの値を、歪曲収差補正及び倍率色収差補正を経
たデータIR(xP ,yPIR)のうち、y方向に沿って
座標値(xP ,yP0)を挟んで隣り合っている2つの位
置におけるIRのデータに基づいて補間演算によって求
める。上記処理を画像の全ての画素について行うことに
より、y方向についての歪曲収差補正、倍率色収差補正
が完了する。
Next, the original position of each pixel of the image in the y direction (hereinafter, this position is represented by a coordinate value (x P , y P0 )) is obtained. The coordinate values (x P, y P0) the value of R at the position of, the distortion correction and the magnification chromatic aberration correction menstrual data R (x P, y PR) among the coordinate values along the y-direction (x P , Y P0 ) are obtained by an interpolation operation based on the data of R at two positions adjacent to each other with the interposition therebetween.
Further, the value of G at the position of the coordinate value (x P , y P0 ) is
Data G after distortion and magnification chromatic aberration correction
(X P, y PG) of the coordinate values along the y-direction (x P,
The value of B at the position of the coordinate value (x P , y P0 ) is obtained by interpolation based on the G data at two positions adjacent to each other with y P0 ) therebetween. Among the passed data B (x P , y PB ), the coordinates are obtained by interpolation based on the B data at two positions adjacent to each other across the coordinate value (x P , y P0 ) along the y direction. The IR value at the position of the value (x P , y P0 ) is converted to the coordinate value (x P , y P0 ) along the y direction of the data IR (x P , y PIR ) that has undergone distortion correction and chromatic aberration of magnification correction. ) Are obtained by interpolation based on IR data at two positions adjacent to each other. By performing the above process for all the pixels of the image, the distortion correction and the chromatic aberration of magnification in the y direction are completed.

【0075】続いて、歪曲収差補正及び倍率色収差補正
をx方向について行う。すなわち、画像の中心位置を基
準として、画像データの座標値が(xP ,yP0)の画素
に対し、座標(xP ,yP0)をキーにして、歪曲収差補
正データの中から対応するx方向についての歪曲収差量
Dx(xP ,yP0)を検索し(なお、座標(xP ,
y P0)における歪曲収差量がデータとして記憶されてい
ない場合には、前記座標の周囲の位置における歪曲収差
量に基づいて、座標(xP ,yP0)における歪曲収差量
を補間演算によって求める)、座標(xP ,yP0)の画
素のデータR(xP,yP0)、G(xP ,yP0)、B
(xP ,yP0)、IR(xP ,yP0)の座標を次式に従
って変換することを、全ての画素について行う。 R(xPR',yP0)←R(xP ,yP0) G(xPG,
yP0)←G(xP ,yP0) B(xPB',yP0)←B(xP ,yP0)IR(xPIR',y
P0)←IR(xP ,yP0) 但し、xPR’=xPG=xPB’=xPIR’=xP +Dx
(xP ,yP0)
Subsequently, distortion correction and lateral chromatic aberration correction
Is performed in the x direction. That is, based on the center position of the image
As a reference, the coordinate value of the image data is (xP, YP0) Pixel
For the coordinates (xP, YP0) As a key to compensate for distortion
Distortion amount in x direction corresponding to positive data
Dx (xP, YP0) And search for the coordinates (xP,
y P0) Is stored as data.
If not, distortion at positions around the coordinates
Based on the quantity, the coordinates (xP, YP0Amount of distortion in)
Is obtained by interpolation calculation), coordinates (xP, YP0) Painting
Raw data R (xP, YP0), G (xP, YP0), B
(XP, YP0), IR (xP, YP0) Is calculated according to the following equation.
Is performed for all the pixels. R (xPR', yP0) ← R (xP, YP0) G (xPG,
yP0) ← G (xP, YP0) B (xPB', yP0) ← B (xP, YP0) IR (xPIR', y
P0) ← IR (xP, YP0) Where xPR’= XPG= XPB’= XPIR’= XP+ Dx
(XP, YP0)

【0076】また、x方向についての歪曲収差補正前の
座標値が(xP ,yP0)の画素(x方向についての歪曲
収差補正後の座標値が(xPR',yP0)の画素)のRのデ
ータに対し、座標(xP ,yP0)をキーにして、Rの倍
率色収差補正データの中から対応するRのx方向につい
ての倍率色収差量ΔRx(xP ,yP0)を検索し(な
お、座標(xP ,yP0)における倍率色収差量がデータ
として記憶されていない場合には、前述のように補間演
算によって倍率色収差量を演算する)、x方向について
の歪曲収差補正後の座標値が(xPR',yP0)の画素のR
のデータR(xPR',yP0)の座標を次式に従って変換す
ることを、全ての画素について行う。 R(xPR,yP0)←R(xPR',yP0) 但し、xPR=xPR’+ΔRx(xP ,yP0)=xP +D
x(xP ,yP0)+ΔRx(xP ,yP0)
A pixel having a coordinate value (x P , y P0 ) before distortion correction in the x direction (a pixel having a coordinate value (x PR ', y P0 ) after distortion correction in the x direction) For the R data, the coordinate (x P , y P0 ) is used as a key to search the corresponding chromatic aberration correction data of R from the corresponding R chromatic aberration amount ΔRx (x P , y P0 ) in the x direction. (If the chromatic aberration of magnification at the coordinates (x P , y P0 ) is not stored as data, the chromatic aberration of magnification is calculated by interpolation as described above.) Of the pixel whose coordinate value is (x PR ', y P0 )
The conversion of the coordinates of the data R (x PR ', y P0 ) according to the following equation is performed for all the pixels. R (x PR, y P0) ← R (x PR ', y P0) However, x PR = x PR' + ΔRx (x P, y P0) = x P + D
x (x P , y P0 ) + ΔRx (x P , y P0 )

【0077】また、x方向についての歪曲収差補正前の
座標値が(xP ,yP0)の画素のBのデータに対し、座
標(xP ,yP0)をキーにして、Bの倍率色収差補正デ
ータの中から対応するBのx方向についての倍率色収差
量ΔBx(xP ,yP0)を検索し、x方向についての歪
曲収差補正後の座標値が(xPB',yP0)の画素のBのデ
ータB(xPB',yP0)の座標を次式に従って変換するこ
とを、全ての画素について行う。 B(xPB,yP0)←B(xPB',yP0) 但し、xPB=xPB’+ΔBx(xP ,yP0)=xP +D
x(xP ,yP0)+ΔBx(xP ,yP0)
Further, for the B data of the pixel having the coordinate value (x P , y P0 ) before the distortion correction in the x direction, the chromatic aberration of magnification of B is set by using the coordinates (x P , y P0 ) as a key. From the correction data, a corresponding chromatic aberration of magnification ΔBx (x P , y P0 ) in the x direction of B is searched, and a pixel having a coordinate value (x PB ', y P0 ) after the distortion correction in the x direction is obtained. The conversion of the coordinates of the B data B (x PB ', y P0 ) according to the following equation is performed for all the pixels. B (x PB, y P0) ← B (x PB ', y P0) where, x PB = x PB' + ΔBx (x P, y P0) = x P + D
x (x P , y P0 ) + ΔBx (x P , y P0 )

【0078】更に、x方向についての歪曲収差補正前の
座標値が(xP ,yP0)の画素のIRのデータに対し、
座標(xP ,yP0)をキーにして、IRの倍率色収差補
正データの中から対応するIRのx方向についての倍率
色収差量ΔIRx(xP ,y P0)を検索し、x方向につ
いての歪曲収差補正後の座標値が(xPIR',yP0)の画
素のIRのデータIR(xPIR',yP0)の座標を次式に
従って変換することを、全ての画素について行う。 IR(xPIR,yP0)←IR(xPIR',yP0) 但し、xPIR=xPIR’+ΔIRx(xP ,yP0)=xP
+Dx(xP ,yP0)+ΔIRx(xP ,yP0)
Further, before distortion correction in the x direction,
If the coordinate value is (xP, YP0) For the IR data of the pixel
Coordinates (xP, YP0) As a key to compensate for IR chromatic aberration
Magnification in the x direction of the corresponding IR from the positive data
Chromatic aberration amount ΔIRx (xP, Y P0) And search in the x direction
The coordinate value after distortion correction is (xPIR', yP0) Painting
Raw IR data IR (xPIR', yP0) To the following equation
Therefore, the conversion is performed for all the pixels. IR (xPIR, YP0) ← IR (xPIR', yP0) Where xPIR= XPIR′ + ΔIRx (xP, YP0) = XP
+ Dx (xP, YP0) + ΔIRx (xP, YP0)

【0079】上記により、x方向についての歪曲収差補
正、及びx方向についてのR、B及びIRの倍率色収差
補正が行われ、R,G,B,IRの各データが表す画像
の各画素の位置は各々独立にx方向に各々移動される。
As described above, the distortion correction in the x direction and the chromatic aberration of magnification of R, B and IR in the x direction are performed, and the position of each pixel of the image represented by each data of R, G, B and IR Are independently moved in the x direction.

【0080】次に、画像の各画素のx方向についての本
来の位置(以下、この位置を座標値(xP0,yP0)で表
す)を求める。そして、座標値(xP0,yP0)の位置に
おけるRの値を、歪曲収差補正及び倍率色収差補正を経
たデータR(xPR,yP0)のうち、x方向に沿って座標
値(xP0,yP0)を挟んで隣り合っている2つの位置に
おけるRのデータに基づいて補間演算によって求める。
また、座標値(xP0,yP0)の位置におけるGの値を、
歪曲収差補正及び倍率色収差補正を経たデータG
(xPG,yP0)のうち、x方向に沿って座標値(xP0,
yP0)を挟んで隣り合っている2つの位置におけるGの
データに基づいて補間演算によって求め、座標値
(xP0,yP0)の位置におけるBの値を、歪曲収差補正
及び倍率色収差補正を経たデータB(xPB,yP0)のう
ち、x方向に沿って座標値(xP0,yP0)を挟んで隣り
合っている2つの位置におけるBのデータに基づいて補
間演算によって求め、座標値(xP0,yP0)の位置にお
けるIRの値を、歪曲収差補正及び倍率色収差補正を経
たデータIR(xPIR,yP0)のうち、x方向に沿って
座標値(xP0,yP0)を挟んで隣り合っている2つの位
置におけるIRのデータに基づいて補間演算によって求
める。
Next, the original position of each pixel of the image in the x direction (hereinafter, this position is represented by a coordinate value (x P0 , y P0 )) is obtained. Then, the value of R at the position of the coordinate value (x P0 , y P0 ) is converted into the coordinate value (x P0 ) along the x direction of the data R (x PR , y P0 ) after the distortion aberration correction and the magnification chromatic aberration correction. , Y P0 ) are obtained by an interpolation operation based on the data of R at two positions adjacent to each other with the interposition therebetween.
The value of G at the position of the coordinate value (x P0 , y P0 ) is
Data G after distortion and magnification chromatic aberration correction
Of (x PG , y P0 ), coordinate values (x P0 , y P0 , y
The value of B at the position of the coordinate value (x P0 , y P0 ) is obtained by interpolation based on the G data at two positions adjacent to each other with y P0 ) therebetween. Among the passed data B (x PB , y P0 ), the coordinates are obtained by interpolation based on the B data at two positions adjacent to each other across the coordinate value (x P0 , y P0 ) along the x direction. The IR value at the position of the value (x P0 , y P0 ) is converted into the coordinate value (x P0 , y P0 ) along the x direction of the data IR (x PIR , y P0 ) after the distortion correction and the chromatic aberration of magnification correction. ) Are obtained by interpolation based on IR data at two positions adjacent to each other.

【0081】上記処理を画像の全ての画素について行う
ことにより、x方向についての歪曲収差補正及び倍率色
収差補正が行われ、歪曲収差補正処理及び倍率色収差補
正処理が完了する。上記の歪曲収差補正及び倍率色収差
補正により、結像レンズ28の歪曲収差及び倍率色収差
に起因するR,G,B,IRの各データが表す画像の画
素ずれが補正される。なお、ステップ102、104は
請求項3に記載の補正手段に対応している。
By performing the above processing for all the pixels of the image, distortion correction and chromatic aberration of magnification in the x direction are performed, and the distortion correction processing and chromatic aberration of magnification correction processing are completed. By the above-described distortion correction and magnification chromatic aberration correction, the pixel shift of the image represented by each of the R, G, B, and IR data due to the distortion and magnification chromatic aberration of the imaging lens 28 is corrected. Steps 102 and 104 correspond to the correcting means described in claim 3.

【0082】次のステップ106では、IR光として写
真フィルムに照射する光に含まれている可視域の光によ
る、IR光の透過光量の検出値の変化を補正する(以
下、波長分離補正という)ための補正パラメータを取り
込む。そしてステップ108では、取り込んだ補正パラ
メータに基づき、IRデータに対して波長分離補正を行
う。この波長分離補正は、歪曲収差補正及び倍率色収差
補正を経たR,G,B,IRのデータに基づき各画素毎
に次式の演算を行い、全ての画素のIRデータを次式か
ら求まるデータIR’に置き換えることで実現できる。
In the next step 106, the change in the detected value of the transmitted light amount of the IR light due to the visible light included in the light irradiated to the photographic film as the IR light is corrected (hereinafter referred to as wavelength separation correction). Correction parameters are taken. In step 108, wavelength separation correction is performed on the IR data based on the acquired correction parameters. In this wavelength separation correction, the following calculation is performed for each pixel based on the R, G, B, and IR data that have been subjected to the distortion correction and the chromatic aberration of magnification correction, and the IR data of all pixels is obtained from the following formula. Can be realized by replacing

【0083】[0083]

【数1】 (Equation 1)

【0084】なお上式において、B,G,R,IRは演
算対象の画素のB,G,R,IRの値、IR’は波長分
離補正後のIRの値を表す。また、a0,a1,a2,a3
は波長分離補正を行うための補正パラメータであり、各
々演算対象の画素のB,G,R,IRの値に対する係数
である。本実施形態では、フィルタ23IRの特性に基
づいて、IR光として写真フィルムに照射される光のう
ち可視光の割合及びその波長域を求め、演算結果に基づ
いて上記補正パラメータの各係数の値を設定し、ROM
50に記憶している。
In the above equation, B, G, R, and IR represent the B, G, R, and IR values of the pixel to be calculated, and IR ′ represents the IR value after wavelength separation correction. A 0 , a 1 , a 2 , a 3
Is a correction parameter for performing wavelength separation correction, and is a coefficient for each of B, G, R, and IR values of a pixel to be calculated. In the present embodiment, based on the characteristics of the filter 23IR, the ratio of the visible light in the light irradiated to the photographic film as the IR light and the wavelength range thereof are obtained, and the value of each coefficient of the correction parameter is calculated based on the calculation result. Set, ROM
50.

【0085】図3には、IR光として写真フィルムに照
射される光の分光特性の一例を示すが(図3に「IR」
と表記して示す特性)、この特性では、前記IR光とし
て照射される光のうち可視光の割合は数%程度であり、
その波長域はRに相当する波長域にのみ分布している
(この場合、IR光として照射される光に含まれる可視
光の透過光量は画像のR濃度に応じて変化する)ので、
一例としてa0=0,a1=0,a2=−0.03,a3=
1等の値を設定することができる。
FIG. 3 shows an example of the spectral characteristics of the light irradiated to the photographic film as IR light (FIG. 3 shows “IR”).
In this characteristic, the ratio of visible light in the light irradiated as the IR light is about several percent,
Since the wavelength range is distributed only in the wavelength range corresponding to R (in this case, the transmitted light amount of visible light included in the light irradiated as IR light changes according to the R density of the image).
As an example, a 0 = 0, a 1 = 0, a 2 = −0.03, a 3 =
A value such as 1 can be set.

【0086】上記の波長分離補正を行うことにより、I
R光として照射される光に可視光が含まれていることに
起因するIR光の透過光量の検出値の変化が補正され
る。なお、ステップ106、108は請求項6に記載の
補正手段に対応している。
By performing the above-described wavelength separation correction, I
A change in the detection value of the transmitted light amount of the IR light due to the fact that the light irradiated as the R light includes visible light is corrected. Steps 106 and 108 correspond to the correcting means described in claim 6.

【0087】ところで、写真フィルムを透過する光は、
傷や異物等が付いておらずかつ画像が記録されていない
部分(所謂素抜け部分)を透過する場合であっても、フ
ィルムベースにおける屈折によって透過光量が減衰する
が、フィルムベースにおける光の屈折率(透過光量の減
衰度)は透過光の波長によって異なっており(減衰度の
波長依存性)、例として図6に示すように、透過光の波
長が長くなるに従って透過光の減衰度が小さくなる特性
を示すことが一般的である。そして、この波長−減衰度
特性はフィルムベースの材質(写真フィルムの種類)に
よって異なっている。
The light transmitted through the photographic film is
Even in the case where light passes through a portion where no scratch or foreign matter is attached and an image is not recorded (a so-called plain portion), the amount of transmitted light attenuates due to refraction at the film base, but the refraction of light at the film base The rate (attenuation of the amount of transmitted light) differs depending on the wavelength of the transmitted light (wavelength dependence of the attenuation). As shown in FIG. 6, for example, as the wavelength of the transmitted light increases, the attenuation of the transmitted light decreases. It is common to show certain characteristics. The wavelength-attenuation characteristics differ depending on the material of the film base (the type of photographic film).

【0088】このため、本実施形態では写真フィルムの
波長−減衰度特性を写真フィルムの種類毎に各々測定
し、波長−減衰度特性の測定結果に基づいて、写真フィ
ルムによる減衰度の波長依存性に起因するR,G,B,
IRの透過光量の変動を補正するための減衰度補正量を
写真フィルムの種類毎に各々決定し、決定した減衰度補
正量を写真フィルムの種類を表す情報と対応させて減衰
度補正データとしてROM50に予め記憶している。
For this reason, in this embodiment, the wavelength-attenuation characteristic of the photographic film is measured for each type of photographic film, and the wavelength dependence of the attenuation by the photographic film is determined based on the measurement result of the wavelength-attenuation characteristic. R, G, B, due to
Attenuation correction amounts for correcting variations in the amount of transmitted IR light are determined for each type of photographic film, and the determined attenuation correction amounts are made to correspond to information representing the types of photographic films, and are stored in the ROM 50 as attenuation correction data. Is stored in advance.

【0089】ステップ110では、フィルムスキャナ1
2による写真フィルム読取時に検出された、読取対象の
写真フィルムの種類を表す情報を取り込む。なお、写真
フィルムの種類は、写真フィルムの製造時にバーコード
等の形態で写真フィルムの側縁に記録されるDXコード
を読み取ることで検出することができる。次のステップ
112では、ステップ110で取り込んだ情報に基づ
き、読取対象の写真フィルムの種類に対応する減衰度補
正データをROM50から取り込む。そしてステップ1
14では、ステップ112で取り込んだ減衰度補正デー
タに従い、R,G,B,IRの各データに対し、写真フ
ィルムによる減衰度の波長依存性に起因するR,G,
B,IRの透過光量の変動を画素毎に補正する。
At step 110, the film scanner 1
The information indicating the type of the photographic film to be read, which is detected at the time of reading the photographic film by No. 2, is fetched. The type of the photographic film can be detected by reading a DX code recorded on a side edge of the photographic film in the form of a bar code or the like when the photographic film is manufactured. In the next step 112, attenuation correction data corresponding to the type of the photographic film to be read is fetched from the ROM 50 based on the information fetched in step 110. And step 1
At 14, in accordance with the attenuation correction data taken in step 112, the R, G, B, and IR data are compared with the R, G, and R due to the wavelength dependence of the attenuation by the photographic film.
The variation of the transmitted light amounts of B and IR is corrected for each pixel.

【0090】これにより、R,G,B,IRの各データ
の値は、写真フィルムのフィルムベースにおける屈折に
よる透過光の減衰度が波長に拘わらず一定(例えば減衰
度=0)であると仮定したときのR,G,B,IRの透
過光量に対応する値に補正されることになる。上記のス
テップ110乃至114は請求項7に記載の補正手段に
対応している。
Thus, the values of the R, G, B, and IR data assume that the attenuation of transmitted light due to refraction at the film base of a photographic film is constant (eg, attenuation = 0) regardless of wavelength. Is corrected to a value corresponding to the amount of transmitted light of R, G, B, and IR. The above steps 110 to 114 correspond to the correcting means according to claim 7.

【0091】ところで、レンズの焦点距離はレンズを透
過する光の波長に応じて変化(焦点距離の波長依存性)
するので、単一の画像に対してR,G,B,IRの各波
長域についての読み取りを各々行う場合、結像レンズ2
8による画像の結像位置は、エリアCCD30の受光面
位置に対して透過光の波長域毎に変化し、各波長域につ
いての読み取り(各波長域毎の透過光量の検出)によっ
て得られるR,G,B,IRの各データが表す画像の鮮
鋭度も各々相違することになる。
Incidentally, the focal length of the lens changes according to the wavelength of light passing through the lens (wavelength dependence of the focal length).
Therefore, when reading a single image in each of the R, G, B, and IR wavelength ranges, the imaging lens 2
The image formation position of the image 8 changes with respect to the light receiving surface position of the area CCD 30 for each wavelength region of the transmitted light, and R, R obtained by reading each wavelength region (detecting the amount of transmitted light for each wavelength region). The sharpness of the image represented by the data of G, B, and IR is also different.

【0092】本実施形態のように各波長域についての読
み取りを順次行う場合、上記の鮮鋭度の相違は、例えば
各波長域についての読み取りを行う前に、読み取りを行
う波長域についてのフィルムスキャナ12の結像レンズ
28による画像の結像位置をエリアCCD30の受光面
位置に自動的に一致させるオートフォーカス(AF)処
理を毎回行うことで解決できるが、代わりに画像の読み
取りに時間がかかるという新たな問題が生ずる。
When reading in each wavelength range is sequentially performed as in the present embodiment, the difference in sharpness is caused, for example, by reading the film scanner 12 in the wavelength range to be read before reading in each wavelength range. Can be solved by performing an auto focus (AF) process for automatically matching the image forming position of the image formed by the image forming lens 28 with the light receiving surface position of the area CCD 30, but it takes a long time to read the image instead. Problems arise.

【0093】本実施形態では、単一の画像に対する読み
取りを開始するときに、所定の基準波長域(例えばG)
についてのみAF処理を行い、各波長域についてAF処
理を各々行うことに代えて、次のステップ116、11
8でR,G,B,IRの各データが表す画像の鮮鋭度が
一致するように各データを補正する鮮鋭度補正処理を行
う。
In this embodiment, when reading of a single image is started, a predetermined reference wavelength range (for example, G)
Instead of performing the AF process only on each wavelength region and performing the AF process on each wavelength region, the following steps 116 and 11 are performed.
In step 8, a sharpness correction process is performed to correct each data so that the sharpness of the image represented by each of the R, G, B, and IR data coincides.

【0094】すなわち、ステップ116では、結像レン
ズ28の焦点距離の波長依存性に起因するR,G,B,
IRの各データの鮮鋭度のばらつきを補正するための鮮
鋭度補正値をROM50から取り込む。この鮮鋭度補正
値は、各データが表す画像に対する高周波成分の強調度
を表しており(鮮鋭度の低下は空間周波数の分布におい
て高周波成分の減衰として現れる)、各データが表す画
像における高周波成分の減衰度合いが高くなるに従って
強調度が高くなるように設定されてROM50に予め記
憶されている。
That is, in step 116, R, G, B, and R due to the wavelength dependence of the focal length of the imaging lens 28.
A sharpness correction value for correcting a variation in the sharpness of each data of the IR is taken in from the ROM 50. This sharpness correction value represents the degree of emphasis of the high-frequency component with respect to the image represented by each data (a decrease in the sharpness appears as attenuation of the high-frequency component in the spatial frequency distribution). The degree of emphasis is set to increase as the degree of attenuation increases, and is stored in the ROM 50 in advance.

【0095】詳しくは、R,G,B,IRの各波長域毎
の結像レンズ28の焦点距離から、基準波長域の光につ
いての結像レンズ28の焦点距離と非基準波長域(例え
ばR,B,IR)の光についての結像レンズ28の焦点
距離との偏差を各非基準波長域について各々求め、この
焦点距離の偏差に基づいて高周波成分の減衰度合いを推
定し、各非基準波長域毎に、前記高周波成分の減衰度合
いに応じて鮮鋭度補正値を各々設定している。
More specifically, from the focal length of the imaging lens 28 for each of the R, G, B, and IR wavelength ranges, the focal length of the imaging lens 28 for light in the reference wavelength range and the non-reference wavelength range (for example, R , B, IR) with respect to the focal length of the imaging lens 28 for each non-reference wavelength range, and based on the focal length deviation, the degree of attenuation of the high-frequency component is estimated. A sharpness correction value is set for each region in accordance with the degree of attenuation of the high frequency component.

【0096】次のステップ118では、ステップ116
で取り込んだ鮮鋭度補正値に基づき、非基準波長域のデ
ータに対して鮮鋭度補正を各々実行する。この鮮鋭度補
正は、例えば次の(1)式の演算を行うことで実現でき
る。 QL=Q+β(Q−QUS) …(1) 但し、Qは補正対象の画像データ(非基準波長域(例え
ばR又はB又はIRのデータ)、QLは鮮鋭度補正後の
画像データ、QUSは非鮮鋭マスク画像データ、βは高
周波成分の強調度(鮮鋭度補正値)である。
In the next step 118, step 116
Based on the sharpness correction values captured in step (1), the sharpness correction is performed on the data in the non-reference wavelength range. This sharpness correction can be realized, for example, by performing the calculation of the following equation (1). QL = Q + β (Q−QUS) (1) where Q is image data to be corrected (non-reference wavelength region (for example, R or B or IR data), QL is image data after sharpness correction, and QUS is The sharp mask image data, β, is the degree of enhancement of the high frequency component (sharpness correction value).

【0097】非鮮鋭マスク画像データQUSは、補正対
象の画像データQに対し、例えば画像の角部に存在する
n×n画素(例えばn=5程度の値を用いることができ
る)の平均値を、前記n×n画素から成る領域の中心に
相当する画素の非鮮鋭マスク信号とすることを、処理対
象のn×n画素の領域を1画素分ずつ移動させながら繰
り返すことで得ることができる。これにより、例として
図7(A)に実線で示す処理対象の画像データQのレス
ポンス特性(空間周波数の分布)に対し、図7(A)に
破線で示すように、高周波帯域での応答が画像データQ
よりも低くされたレスポンス特性の非鮮鋭マスク画像デ
ータQUSが得られる。
The unsharp mask image data QUS is obtained by, for example, calculating the average value of n × n pixels (for example, a value of about n = 5) existing at the corner of the image with respect to the image data Q to be corrected. The non-sharp mask signal of the pixel corresponding to the center of the area composed of the n × n pixels can be obtained by repeating the processing of the n × n pixel area by one pixel. As a result, the response in the high-frequency band as shown by the broken line in FIG. 7A with respect to the response characteristic (spatial frequency distribution) of the image data Q to be processed indicated by the solid line in FIG. Image data Q
As a result, unsharp mask image data QUS having lower response characteristics can be obtained.

【0098】(1)式における(Q−QUS)は、画像
データQと非鮮鋭マスク画像データQUSとの差である
ので、図7(B)に示すように高周波帯域に応答のピー
クが生ずるレスポンス特性(すなわち、図7(A)に実
線で示すレスポンス特性と破線で示すレスポンス特性の
差に相当するレスポンス特性)となる。従って、(1)
式によって求まる鮮鋭度補正後の画像データQLのレス
ポンス特性は、図7(C)に実線で示す画像データQの
レスポンス特性に対し、図7(C)に破線で示すよう
に、高周波帯域においてのみ応答が高くされた特性にな
ると共に、該特性において高周波帯域における応答高さ
hは高周波成分の強調度(鮮鋭度補正値)βの値に依存
し、鮮鋭度補正値βの値が高くなるに従って応答高さh
(高周波成分の強調度合い)も高くなる。
Since (Q-QUS) in the equation (1) is the difference between the image data Q and the unsharp mask image data QUS, the response in which a response peak occurs in a high frequency band as shown in FIG. The characteristic (ie, the response characteristic corresponding to the difference between the response characteristic indicated by the solid line and the response characteristic indicated by the broken line in FIG. 7A). Therefore, (1)
The response characteristic of the image data QL after the sharpness correction obtained by the equation is different from the response characteristic of the image data Q indicated by the solid line in FIG. 7C only in the high frequency band as indicated by the broken line in FIG. As the response becomes higher, the response height h in the high-frequency band depends on the value of the degree of enhancement (sharpness correction value) β of the high-frequency component, and as the value of the sharpness correction value β increases, Response height h
(The degree of enhancement of the high-frequency component) also increases.

【0099】上記の鮮鋭度補正を非基準波長域の各デー
タに対して各々行うことにより、結像レンズ28の焦点
距離の波長依存性に起因するR,G,B,IRの各デー
タが表す画像の鮮鋭度を補正することができる。このよ
うに、ステップ116、118は請求項5に記載の補正
手段に対応している。
By performing the above-described sharpness correction on each data in the non-reference wavelength range, each data of R, G, B, and IR due to the wavelength dependence of the focal length of the imaging lens 28 is represented. The sharpness of the image can be corrected. As described above, steps 116 and 118 correspond to the correcting means described in claim 5.

【0100】なお、上記では結像レンズ28の焦点距離
の波長依存性に起因する鮮鋭度のばらつきを補正してい
たが、結像レンズ28の像面湾曲に起因する同一画像内
の鮮鋭度のばらつきも併せて補正するようにしてもよ
い。この補正は、R,G,B,IRの各データが表す画
像中の各部における高周波成分の減衰度合いを推定し、
高周波成分の減衰を各部における減衰度合いに応じて補
正するための鮮鋭度補正値を、2次元のテーブル上の各
部の位置に対応するアドレスに各々記憶することにより
鮮鋭度補正テーブルを設定し、鮮鋭度の補正にあたり、
各画素毎に、鮮鋭度補正テーブルの対応するアドレスに
記憶されている鮮鋭度補正値を用いて前述の(1)式の
演算を行うことで実現できる。
In the above description, the variation in sharpness caused by the wavelength dependence of the focal length of the imaging lens 28 is corrected. However, the sharpness in the same image caused by the curvature of field of the imaging lens 28 is corrected. The variation may be corrected together. This correction estimates the degree of attenuation of the high-frequency component in each part in the image represented by the R, G, B, and IR data,
A sharpness correction table is set by storing a sharpness correction value for correcting the attenuation of the high frequency component according to the degree of attenuation in each part at an address corresponding to the position of each part on the two-dimensional table, and the sharpness correction table is set. In correcting the degree,
This can be realized by performing the calculation of the above-described equation (1) using the sharpness correction value stored at the corresponding address of the sharpness correction table for each pixel.

【0101】次のステップ120では上記の各種補正を
経たR,G,Bの画像データ及びIRデータに基づき、
R,G,Bの画像データが表す処理対象の画像の欠陥部
を検出する欠陥部検出処理を行う。まず欠陥部検出処理
の説明に先立ち、写真フィルムに傷や異物の付いている
箇所のIR光による検出の原理について説明する。
In the next step 120, based on the R, G, B image data and IR data that have undergone the various corrections described above,
A defect detection process is performed to detect a defect in the image to be processed represented by the R, G, and B image data. Prior to the description of the defect detection processing, the principle of detection of a spot on a photographic film with a scratch or a foreign substance using IR light will be described.

【0102】図8(A)に示すように、写真フィルム上
の表面に傷や異物が付いていない箇所に光を照射したと
きの透過光量は、写真フィルムへの入射光量に対し、写
真フィルムによる光の吸収に応じた減衰量だけ減衰す
る。なお、写真フィルムで光の吸収が生ずる波長域はお
およそ可視光域であり、赤外域のIR光については殆ど
吸収されないので、前記傷や異物が付いていない箇所に
IR光を照射した場合の透過光量は入射光量から僅かに
変化するのみである。
As shown in FIG. 8A, the amount of light transmitted when light is applied to a portion of the surface of the photographic film where no scratch or foreign matter is attached is larger than the amount of light incident on the photographic film by the photographic film. Attenuates by the amount of attenuation according to light absorption. The wavelength range in which light is absorbed in the photographic film is approximately the visible light range, and IR light in the infrared range is hardly absorbed. The light quantity only slightly changes from the incident light quantity.

【0103】一方、写真フィルム上の傷が付いている箇
所に光を照射した場合、照射された光の一部は傷によっ
て屈折するので、前記傷が付いている箇所に光を照射し
たときの透過光量(前記箇所を直線的に透過する光の光
量)は、写真フィルムへの入射光量に対し、前述した写
真フィルムによる光の吸収に起因する減衰に、傷による
光の屈折に起因する減衰を加えた減衰量だけ減衰する。
なお、図8(A)では光の入射側に傷が付いている場合
を示しているが、光の射出側に傷が付いている場合も同
様である。
On the other hand, when light is applied to a scratched portion on a photographic film, a part of the irradiated light is refracted by the scratch. The amount of transmitted light (the amount of light transmitted linearly through the above-mentioned portion) is determined by the amount of light incident on the photographic film, the amount of attenuation caused by the absorption of light by the photographic film, and the amount of attenuation caused by refraction of light by flaws. Attenuates by the added amount of attenuation.
Note that FIG. 8A illustrates a case where the light incident side has a flaw, but the same applies to a case where the light exit side has a flaw.

【0104】傷による光の屈折はIR光でも生ずるの
で、前記傷が付いている箇所にIR光を照射した場合の
IR光の透過光量は、傷による光の屈折に起因する減衰
に応じた減衰量だけ減衰する。なお傷による光の屈折
は、例として図8(B)にも示すように、傷の規模(深
さ等)が大きくなるに伴って顕著となる(可視光もIR
光も同様)ので、前記傷が付いている箇所にIR光を照
射した場合の透過光量は傷の規模が大きくなるに従って
小さくなる。従って、IR光の透過光量の減衰量に基づ
いて、写真フィルムに付いている傷の規模も検知するこ
とができる。
Since the refraction of light due to the scratch is also caused by the IR light, the amount of transmitted IR light when the above-mentioned scratched portion is irradiated with the IR light is attenuated according to the attenuation caused by the refraction of the light due to the scratch. Decay by an amount. As shown in FIG. 8B, the refraction of light due to the flaw becomes remarkable as the scale (depth, etc.) of the flaw increases (visible light also becomes IR light).
(The same applies to light.) Therefore, the amount of transmitted light when the above-mentioned scratched portion is irradiated with IR light decreases as the scale of the scratch increases. Therefore, the scale of the flaw on the photographic film can be detected based on the attenuation of the amount of transmitted IR light.

【0105】また、写真フィルム上の塵埃等の異物がつ
いている箇所に光を照射した場合、照射した光は異物に
よって反射されるので、異物の大きさや種類(光透過
率)にも依存するが、前記異物が付いている箇所に光を
照射した場合の光の透過光量は前記異物によって大きく
減衰する。異物が付いている箇所に光を照射した場合の
透過光量の減衰は、前記箇所にIR光を照射した場合も
同様である。
Further, when light is applied to a portion of the photographic film on which foreign matter such as dust is attached, the irradiated light is reflected by the foreign matter, and thus depends on the size and type (light transmittance) of the foreign matter. In addition, when light is applied to a portion where the foreign matter is attached, the amount of transmitted light is greatly attenuated by the foreign matter. Attenuation of the amount of transmitted light when light is applied to a portion where a foreign substance is attached is the same as when the IR light is applied to the portion.

【0106】上記のように、写真フィルムにIR光を透
過した場合の透過光量は、写真フィルム上の傷又は異物
が付いている箇所でのみ変化し、写真フィルムに画像が
記録されていたとしても、該画像の透過濃度の変化の影
響を受けないので、写真フィルムにIR光を照射して透
過光量を検出することで、写真フィルムに付いている傷
や異物を検出できる。
As described above, when the IR light is transmitted through the photographic film, the amount of transmitted light changes only at a portion of the photographic film where a scratch or a foreign substance is attached, and even if an image is recorded on the photographic film. Since the image is not affected by the change in the transmission density of the image, the photographic film is irradiated with IR light to detect the amount of transmitted light, so that scratches and foreign substances on the photographic film can be detected.

【0107】上記に基づき、ステップ120では以下の
ようにして欠陥部検出処理を行う。写真フィルムにIR
光を照射したときの透過光量は、前述のように通常は画
像上の位置に拘わらず略一定となり、写真フィルムに傷
又は異物が付いている箇所でのみ低下する(図9参
照)。IRデータは処理対象の画像上の各位置における
IR光の透過光量を表しているので、処理対象の画像上
の傷や異物が付いていない箇所におけるIRデータが表
すIR光の透過光量(例えば透過光量の最大値)を基準
値とする。そして、各画素毎にIR光の透過光量を基準
値と比較し、基準値に対する透過光量の変化量(低下
量)が所定値(傷や異物が付いていない箇所におけるI
R光の透過光量の若干の変動を考慮して定めた値)以上
の画素を、修正対象の欠陥部に属する欠陥画素として全
て検出する。
On the basis of the above, in step 120, a defective portion detection process is performed as follows. IR on photographic film
As described above, the amount of transmitted light upon irradiation with light is generally substantially constant irrespective of the position on the image, and is reduced only at a portion where the photographic film has a scratch or foreign matter (see FIG. 9). Since the IR data represents the amount of transmitted IR light at each position on the image to be processed, the amount of transmitted IR light (for example, transmitted (The maximum value of the amount of light) as a reference value. Then, the transmitted light amount of the IR light is compared with the reference value for each pixel, and a change amount (decrease amount) of the transmitted light amount with respect to the reference value is determined to be a predetermined value (I at a position where there is no scratch or foreign matter).
Pixels equal to or larger than a value determined in consideration of a slight change in the transmitted light amount of the R light are all detected as defective pixels belonging to the defective portion to be corrected.

【0108】またステップ120では、検出した欠陥画
素を、欠陥画素相互の位置関係(例えば隣接しているか
否か)等に基づいて、同一の欠陥部に属する欠陥画素毎
に分類し、各欠陥部に関する情報(例えば各欠陥部に属
する欠陥画素を表す情報や各欠陥画素におけるIR光の
透過光量の低下量等の情報)をRAM48等に記憶す
る。
In step 120, the detected defective pixels are classified into defective pixels belonging to the same defective portion based on the positional relationship between the defective pixels (for example, whether or not they are adjacent to each other), and each defective pixel is classified. (For example, information indicating defective pixels belonging to each defective portion or information such as a decrease in the amount of transmitted IR light at each defective pixel) is stored in the RAM 48 or the like.

【0109】なお、上記の欠陥部検出処理は各種の補正
を経たR,G,B,IRの各データを用いて行われるの
で、写真フィルムについた傷や異物に相当する欠陥部の
みを確実かつ精度良く検出できると共に、欠陥部の範囲
等の誤検出も防止することができる。ステップ120は
請求項8に記載の欠陥部検出手段に対応している。
Since the above-described defective portion detection processing is performed using various corrected R, G, B, and IR data, only defective portions corresponding to scratches or foreign matters on the photographic film can be surely detected. The detection can be performed with high accuracy, and erroneous detection of the range of the defective portion can be prevented. Step 120 corresponds to the defective portion detecting means.

【0110】次のステップ122では、欠陥部検出処理
によって検出された修正対象の欠陥部に対し、各欠陥部
を修正するための修正値を各々演算する。まず、欠陥部
修正の原理について説明する。
In the next step 122, a correction value for correcting each defective portion is calculated for the defective portion to be corrected detected by the defective portion detection processing. First, the principle of defect repair will be described.

【0111】図8(B)に示すように、写真フィルムの
乳剤層はR,G,Bの各感光層を含んで構成されてお
り、画像が露光記録され現像等の処理が行われた写真フ
ィルム(ネガフィルム)は、R感光層にCのネガ像が形
成され、Gの感光層にMのネガ像が形成され、Bの感光
層にYのネガ像が形成される。そして写真フィルムを透
過した可視光のうち、R光についてはR感光層において
Cのネガ像の透過濃度に応じた減衰量だけ減衰(吸収)
され、G光についてはG感光層においてMのネガ像の透
過濃度に応じた減衰量だけ減衰(吸収)され、B光につ
いてはB感光層においてYのネガ像の透過濃度に応じた
減衰量だけ減衰(吸収)される。
As shown in FIG. 8 (B), the emulsion layer of the photographic film includes R, G, and B photosensitive layers, and the image is exposed and recorded, and the photographic film is subjected to processing such as development. In the film (negative film), a negative C image is formed on the R photosensitive layer, a negative M image is formed on the G photosensitive layer, and a negative Y image is formed on the B photosensitive layer. Of the visible light transmitted through the photographic film, R light is attenuated (absorbed) by an amount corresponding to the transmission density of the negative C image in the R photosensitive layer.
The G light is attenuated (absorbed) by an amount corresponding to the transmission density of the negative M image in the G photosensitive layer, and the B light is attenuated by an amount corresponding to the transmission density of the negative Y image in the B photosensitive layer. Attenuated (absorbed).

【0112】ここで、例として図8(B)に示すよう
に、乳剤面と反対側のバック面に傷が付いている場合、
透過光に対するR,G,Bの各感光層における光の吸収
の比率は傷が付いていない場合と同じである。すなわ
ち、図8(B)において、写真フィルムへの入射光量を
I0、傷が付いていないときのR光、G光、B光の透過
光量を各々I0R,I0G,I0Bとし、傷が付いたときに傷
が付いている箇所を直線的に透過して乳剤層に入射する
光量をI1(I1<I0:I0−I1が傷による光の減衰
分)、傷が付いているときのR光、G光、B光の透過光
量を各々I1R,I1G,I1Bとすると、以下の(2)式の
関係が成り立つ。 I0R/I0≒I1R/I1 I0G/I0≒I1G/I1 I0B/I0≒I1B/I1 …(2)
Here, for example, as shown in FIG. 8B, when the back surface opposite to the emulsion surface is scratched,
The ratio of light absorption in each of the R, G, and B photosensitive layers to transmitted light is the same as that in the case where no damage is made. That is, in FIG. 8B, the amount of light incident on the photographic film is I 0 , and the amounts of transmitted R, G, and B light when there is no flaw are I 0R , I 0G , and I 0B , respectively. When the mark is attached, the amount of light that is linearly transmitted through the scratched portion and enters the emulsion layer is represented by I 1 (I 1 <I 0 : I 0 −I 1 is the amount of light attenuation due to the scratch). Assuming that the transmitted light amounts of the R light, the G light, and the B light when attached are I 1R , I 1G , and I 1B , respectively, the following equation (2) holds. I 0R / I 0 ≒ I 1R / I 1 I 0G / I 0 ≒ I 1G / I 1 I 0B / I 0 ≒ I 1B / I 1 ... (2)

【0113】従って、バック面に傷が付いている箇所に
対応する欠陥部は、傷が付いていない場合と比較して輝
度のみが変化し、写真フィルムに記録されている画像の
色情報は保存されているので、輝度調整方法を適用し欠
陥部領域の輝度を調整することで、画像データが表す画
像の欠陥部を修正することができる。
Therefore, the defective portion corresponding to the portion having a scratch on the back surface changes only in luminance as compared with the case without the scratch, and the color information of the image recorded on the photographic film is preserved. Therefore, the defective portion of the image represented by the image data can be corrected by adjusting the luminance of the defective portion region by applying the luminance adjusting method.

【0114】一方、例として図8(C)に示すように乳
剤面に傷が付いている場合、浅い傷であれば各感光層の
うちの一部の感光層が削られることで、透過光に対する
R,G,Bの各感光層における光の吸収の比率は傷が付
いていない場合と変化する。また、各感光層が全て剥ぎ
取られているような非常に深い傷であれば、透過光に対
する各感光層における光の吸収は生じない。従って、何
れの場合も(2)式の関係は成立しない。
On the other hand, for example, as shown in FIG. 8C, when the emulsion surface is scratched, if the scratch is shallow, a part of each photosensitive layer is cut off, so that transmitted light is removed. The ratio of light absorption in each of the R, G, and B photosensitive layers with respect to is different from that in the case where there is no flaw. In addition, if the photosensitive layer is very deeply scratched such that all the photosensitive layers are peeled off, the light does not absorb the transmitted light in each photosensitive layer. Therefore, the relationship of equation (2) does not hold in any case.

【0115】このように、乳剤面に傷が付いている箇所
に対応する欠陥部は、傷の深さに拘わらず、傷が付いて
いない場合と比較して輝度及び色が各々変化しており、
写真フィルムに記録されている画像の色情報も失われて
いるので、輝度を調整しても欠陥部を精度良く修正する
ことは困難である。このため、乳剤面に傷が付いている
箇所に対応する欠陥部の修正には、欠陥部の周囲の領域
の情報から補間によって欠陥部の輝度及び濃度を決定す
る修正方法(補間方法)が適している。なお、写真フィ
ルムに異物が付いていることに起因して生じた欠陥部に
ついても、異物が付いていない場合と比較して輝度及び
色が各々変化するので、上記の欠陥部を修正する場合に
も補間方法が適している。
As described above, the defective portion corresponding to the portion having a scratch on the emulsion surface has a different luminance and color compared to the case without the scratch, regardless of the depth of the scratch. ,
Since the color information of the image recorded on the photographic film is also lost, it is difficult to accurately correct the defective portion even if the luminance is adjusted. For this reason, a correction method (interpolation method) for determining the luminance and density of a defective portion by interpolation from information on the area around the defective portion is suitable for correcting a defective portion corresponding to a portion where the emulsion surface is damaged. ing. In addition, since the brightness and the color of the defective portion caused by the presence of the foreign matter on the photographic film also change as compared with the case where the foreign matter is not attached, when the above-described defective portion is corrected, The interpolation method is also suitable.

【0116】ステップ122では、まず修正対象の各欠
陥部に対し、補間方法を適用して修正するか輝度調整方
法を適用して修正するかを判定するための所定の特徴量
を各々演算する。本実施形態では所定の特徴量の一例と
して、欠陥部におけるR光、G光、B光の透過光量の変
化の相関を表す特徴量を用いている。
In step 122, first, for each defective portion to be corrected, a predetermined characteristic amount for determining whether the correction is performed by applying the interpolation method or the luminance adjustment method is calculated. In the present embodiment, as an example of the predetermined feature amount, a feature amount indicating a correlation between changes in the transmitted light amounts of the R light, the G light, and the B light in the defect portion is used.

【0117】例えば写真フィルムのバック面に傷が付い
ている場合、例として図9(A)に示すように、傷が付
いている箇所においてR光、G光、B光の透過光量は略
同様の変化を示すので、R光、G光、B光の透過光量の
変化の相関は高い。一方、写真フィルムの乳剤面に傷が
ついている場合、例として図9(B)に示すように、傷
が付いている箇所におけるR光、G光、B光の透過光量
の変化は一定せず、R光、G光、B光の透過光量の変化
の相関は低い(写真フィルムに異物が付いている場合も
同様)。
For example, when the back surface of the photographic film is damaged, as shown in FIG. 9A, for example, the transmitted light amounts of the R light, the G light, and the B light are substantially the same at the damaged portion. , The change in the transmitted light amount of the R light, the G light, and the B light is highly correlated. On the other hand, when the emulsion surface of the photographic film is damaged, as shown in FIG. 9 (B) as an example, the change in the transmitted light amount of R light, G light, and B light at the damaged position is not constant. , R light, G light, and B light have a low correlation with the change in the amount of transmitted light (the same applies to a case where a foreign matter is attached to a photographic film).

【0118】図9は典型的なケースを示したものであ
り、実際には写真フィルムの両面に傷が付いている等の
ように、何れの修正方法を適用すべきかが明確でないケ
ースも多々存在しているが、R,G,Bの画像データに
被写体の色に関する情報が残っていれば輝度調整方法を
適用することが好ましく、前記情報が残っていない場合
には補間方法を適用することが望ましいので、欠陥部に
おけるR光、G光、B光の透過光量の変化の相関を表す
所定の特徴量(例えばR光、G光、B光の透過光量の変
化の微分値の差を積算した値)に基づいて、適用すべき
修正方法を個々の欠陥部毎に適正に判定することができ
る。
FIG. 9 shows a typical case, and there are many cases in which it is not clear which correction method should be applied, such as a case where both sides of a photographic film are actually scratched. However, it is preferable to apply the luminance adjustment method if information on the color of the subject remains in the R, G, B image data, and to apply the interpolation method if the information does not remain. Since it is desirable, a predetermined characteristic amount (for example, the difference between the differential values of the changes in the transmitted light amounts of the R, G, and B lights) representing the correlation of the changes in the transmitted light amounts of the R, G, and B lights in the defect portion is integrated. Value), it is possible to appropriately determine a repair method to be applied for each defective portion.

【0119】修正対象の個々の欠陥部について、上述し
た所定の特徴量を各々演算すると、双方の修正方法の適
用範囲の設定値(双方の修正方法の適用範囲の境界を表
す閾値)を取り込み、各欠陥部の所定の特徴量を前記設
定値と各々比較することにより、個々の欠陥部を単位と
して、補間方法を適用して修正を行うか輝度調整方法を
適用して修正を行うかを各々判定する。
When the above-described predetermined feature values are calculated for each of the defective portions to be corrected, the set values of the application range of both the correction methods (thresholds indicating the boundaries between the application ranges of both the correction methods) are obtained. By comparing the predetermined feature amount of each defective portion with the set value, it is determined whether correction is performed by applying an interpolation method or correction is performed by applying a luminance adjustment method, with each defective portion as a unit. judge.

【0120】そして、補間方法を適用して修正を行うと
判定した欠陥部に対しては、補間方法を適用して修正値
を演算する。すなわち、修正対象の欠陥部の輝度及び色
を該欠陥部の周囲の領域の輝度及び色から補間によって
新たに演算し、補間演算によって求まる欠陥部内の各画
素の値(R,G,B毎の濃度値でもよいし、色相・明度
・彩度を表す値でもよい)をD1、各画素の元の値をD
2、修正度合いをαとし、欠陥部内の各画素の修正値D
3を(3)式に従って求める。 D3=α・D1+(1−α)D2 …(3) 上記処理を、補間方法を適用して修正を行うと判定した
欠陥部に対して各々行って、前記欠陥部に対する修正値
を各々求める。
Then, for a defective portion determined to be corrected by applying the interpolation method, a correction value is calculated by applying the interpolation method. In other words, the luminance and color of the defect to be corrected are newly calculated by interpolation from the luminance and color of the area around the defect, and the value of each pixel in the defect (R, G, and B for each of the R, G, and B) obtained by the interpolation calculation. Density values or values representing hue, lightness, and saturation) may be D1, and the original value of each pixel may be D1.
2. The correction value is α, and the correction value D of each pixel in the defective portion is
3 is obtained according to the equation (3). D3 = α · D1 + (1−α) D2 (3) The above processing is performed on each of the defective portions determined to be corrected by applying the interpolation method, and correction values for the defective portions are obtained.

【0121】また、輝度調整方法を適用して修正を行う
と判定した欠陥部に対しては、輝度調整方法を適用して
修正値を演算する。すなわち、修正対象の欠陥部におけ
るIR光の透過光量の変化量に基づいて欠陥部の輝度修
正量を演算し、輝度修正量に応じて修正した欠陥部内の
各画素の輝度値をL1、各画素の元の輝度値をL2、
「欠陥部修正度合い」の現在の設定値をαとし、欠陥部
内の各画素の修正値(輝度値)L3を(4)式に従って
求める。 L3=α・L1+(1−α)L2 …(4) 上記処理を輝度調整方法を適用して修正を行うと判定し
た欠陥部に対して各々行って、前記欠陥部に対する修正
値を各々求める。なお、上記のステップ122は請求項
8に記載の修正手段に対応している。
For a defective part determined to be corrected by applying the brightness adjustment method, a correction value is calculated by applying the brightness adjustment method. That is, the luminance correction amount of the defective portion is calculated based on the amount of change in the amount of transmitted IR light in the defective portion to be corrected, and the luminance value of each pixel in the defective portion corrected according to the luminance correction amount is represented by L1, The original luminance value of L2,
Assuming that the current setting value of the “defect portion correction degree” is α, a correction value (luminance value) L3 of each pixel in the defect portion is obtained according to the equation (4). L3 = α · L1 + (1−α) L2 (4) The above processing is performed on each defective portion determined to be corrected by applying the luminance adjustment method, and a correction value for each defective portion is obtained. Incidentally, the above-mentioned step 122 corresponds to the correcting means described in claim 8.

【0122】修正対象の全ての欠陥部に対して修正値が
各々演算されるとステップ124へ移行し、各欠陥部に
対する修正値を、欠陥部の位置を表す情報(例えば各欠
陥部を構成する欠陥画素のアドレス)と共にイメージプ
ロセッサ40に通知し、欠陥部修正値決定処理を終了す
る。
When the correction values are calculated for all the defective portions to be corrected, the process proceeds to step 124, and the correction value for each defective portion is replaced with information indicating the position of the defective portion (for example, each of the defective portions is formed). This is notified to the image processor 40 together with the address of the defective pixel), and the defective portion correction value determination processing ends.

【0123】イメージプロセッサ40には、上記の欠陥
部修正値決定処理におけるステップ102〜118の補
正を経た画像データが入力され(前記補正をイメージプ
ロセッサ40が行うようにしてもよい)、入力された画
像データに対し、制御部42で欠陥部修正値決定処理が
行われることで制御部42から通知された修正値に従っ
て欠陥部を修正する(詳しくは欠陥部に属する各欠陥画
素の値を、通知された修正画素値に置き換える)欠陥部
修正処理を行う。これにより、修正対象の全ての欠陥部
が自動的に修正されることになる。このように、イメー
ジプロセッサ40も請求項8に記載の修正手段に対応し
ている。
Image data which has been corrected in steps 102 to 118 in the above-described defective portion correction value determination processing is input to the image processor 40 (the correction may be performed by the image processor 40). The defective portion is corrected in accordance with the correction value notified from the control unit 42 by performing the defective portion correction value determination processing on the image data by the control unit 42 (specifically, the value of each defective pixel belonging to the defective unit is notified. (Replaced by the corrected pixel value). As a result, all the defective portions to be corrected are automatically corrected. As described above, the image processor 40 also corresponds to the correcting unit according to the eighth aspect.

【0124】またイメージプロセッサ40は、欠陥部修
正処理を行った画像データに対し、制御部42における
セットアップ演算によって決定された処理条件で各種の
画像処理を行い、I/Oコントローラ38及びI/F回
路54を介してプリンタ16へ出力する。これにより、
印画紙68に露光記録される画像から、修正対象として
選択された欠陥部が消去される。
The image processor 40 performs various kinds of image processing on the image data on which the defective portion correction processing has been performed under the processing conditions determined by the setup calculation in the control section 42, and the I / O controller 38 and the I / F Output to the printer 16 via the circuit 54. This allows
A defective portion selected as a correction target is erased from the image recorded on the photographic paper 68 by exposure.

【0125】なお、上記では単一のエリアCCD30に
よってR,G,B,IRの各波長域についての読み取り
(透過光量の検出)を各々行う構成のフィルムスキャナ
12を用いた例を説明したが、これに限定されるもので
はなく、各波長域についての読み取りを2個以上の光電
変換素子で行う構成のフィルムスキャナを用いてもよ
い。例として図10には、各波長域についての読み取り
を、各々異なるラインセンサ70B、70G、70R、
70IRで行う構成のフィルムスキャナ72が示されて
いる。
In the above description, an example is described in which the film scanner 12 is configured to perform reading (detection of the amount of transmitted light) for each of the R, G, B, and IR wavelength regions by a single area CCD 30. The present invention is not limited to this, and a film scanner having a configuration in which reading in each wavelength range is performed by two or more photoelectric conversion elements may be used. As an example, in FIG. 10, reading for each wavelength range is performed by different line sensors 70B, 70G, 70R, respectively.
Shown is a film scanner 72 configured for 70IR.

【0126】このフィルムスキャナ72は、光源20か
ら射出された光が、光拡散ボックス74によって写真フ
ィルム26の幅方向に沿って長いスリット状の光束に整
形されて写真フィルム26に照射され、写真フィルム2
6を透過した光が結像レンズ28を介して各ラインセン
サ70B、70G、70R、70IRに各々入射される
構成となっている。各ラインセンサの受光面には、入射
光のうち検出すべき波長域の光のみ透過させるフィルタ
が各々設けられており、写真フィルム26が一定速度で
搬送されている状態で、各ラインセンサによる各波長域
についての読み取り(各波長域の光の透過光量の検出)
が各々行われる。
In the film scanner 72, the light emitted from the light source 20 is shaped into a long slit-like light beam along the width direction of the photographic film 26 by the light diffusion box 74, and is irradiated on the photographic film 26. 2
The light transmitted through 6 is incident on each of the line sensors 70B, 70G, 70R, and 70IR via the imaging lens 28. The light receiving surface of each line sensor is provided with a filter that transmits only light in the wavelength range to be detected among the incident light, and the photographic film 26 is conveyed at a constant speed. Reading of wavelength range (detection of transmitted light amount of light in each wavelength range)
Are performed respectively.

【0127】上記のフィルムスキャナ72のように、各
波長域についての読み取りを複数の光電変換素子で行う
場合、各光電変換素子の配置位置の相違に起因して、各
波長域についての読み取りで各々得られた画像情報に画
素ずれが発生する。例えばフィルムスキャナ72では、
隣り合うラインセンサの写真フィルム26上での読取位
置の間隔が、読み取りの1周期当りに写真フィルム26
が搬送される距離のn倍(nは整数)となるように各ラ
インセンサが各々配置されていれば、各ラインセンサに
よる読み取りのタイミングをn周期ずつずらせば画素ず
れは発生しないが、例えばラインセンサの取付位置の誤
差等により、前記読取位置の間隔が前記1周期当りのフ
ィルム搬送距離の非整数倍であった場合には、前述の画
素ずれが発生する。
When reading in each wavelength range is performed by a plurality of photoelectric conversion elements as in the film scanner 72 described above, each reading in each wavelength range is performed due to the difference in the arrangement position of each photoelectric conversion element. Pixel shift occurs in the obtained image information. For example, in the film scanner 72,
The interval between the reading positions of the adjacent line sensors on the photographic film 26 is determined by the photographic film 26 per reading cycle.
If each line sensor is arranged so as to be n times (n is an integer) the transporting distance, the pixel shift does not occur if the timing of reading by each line sensor is shifted by n periods. If the interval between the reading positions is a non-integer multiple of the film transport distance per one cycle due to an error in the mounting position of the sensor or the like, the above-described pixel shift occurs.

【0128】このような場合には、各ラインセンサの読
取位置の所期の位置に対する位置ずれ量を予め測定して
記憶しておき、位置ずれ補正を行うようにしてもよい。
この位置ずれ補正は、例えば写真フィルムの搬送方向と
平行な方向(例えば図5(A)におけるx方向)につい
ての歪曲収差補正及び倍率色収差補正において、位置ず
れ量の測定値分だけ、位置ずれの方向と逆方向に全画素
の位置が移動するように補正することで実現できる。こ
れにより、光電変換素子の配置位置の相違に起因する画
素位置のずれを補正することができる。
In such a case, the displacement of the reading position of each line sensor with respect to the intended position may be measured and stored in advance, and the displacement may be corrected.
For example, in the distortion correction and the magnification chromatic aberration correction in a direction parallel to the transport direction of the photographic film (for example, the x direction in FIG. 5A), the positional deviation is corrected by the measured value of the positional deviation. This can be realized by correcting so that the positions of all pixels move in the direction opposite to the direction. This makes it possible to correct a pixel position shift caused by a difference in the arrangement position of the photoelectric conversion element.

【0129】なお、上述した補正は請求項4に記載の補
正手段に対応しており、フィルムスキャナ72のライン
センサ70B、70G、70Rは請求項4に記載の第1
の光電変換素子に、ラインセンサ70IRは請求項4に
記載の第2の光電変換素子に対応している。
Note that the above-described correction corresponds to the correction means described in claim 4, and the line sensors 70B, 70G, and 70R of the film scanner 72 are connected to the first means described in claim 4.
The line sensor 70IR corresponds to the second photoelectric conversion element of the fourth aspect.

【0130】また、上記では欠陥部修正方法の一例とし
て補間方法及び輝度調整方法を説明したが、これに限定
されるものではなく、ローパスフィルタ等をかけること
で欠陥部をぼかす、所謂ぼかし方法を適用してもよい。
In the above description, the interpolation method and the brightness adjustment method have been described as examples of the defective portion repairing method. However, the present invention is not limited to these methods. May be applied.

【0131】また、上記では写真フィルムを透過した光
を光電変換することで画像を読み取る構成を説明した
が、これに限定されるものではなく、写真フィルムを反
射した光を光電変換することで画像を読み取る構成を採
用してもよい。また、画像記録材料は写真フィルムに限
定されるものではなく、写真フィルム以外の写真感光材
料や普通紙、OHPシート等を画像記録材料として用い
ても良いことは言うまでもない。
In the above description, the configuration in which an image is read by photoelectrically converting the light transmitted through the photographic film has been described. However, the present invention is not limited to this. The image is obtained by photoelectrically converting the light reflected by the photographic film. May be adopted. The image recording material is not limited to a photographic film, and it goes without saying that a photographic photosensitive material other than a photographic film, plain paper, an OHP sheet, or the like may be used as the image recording material.

【0132】更に、上記ではプレスキャン時にR,G,
Bの読み取りを行い、ファインスキャン時にR,G,
B,IRの読み取りを行う例を説明したが、これに限定
されるものではなく、IR読み取りはプレスキャン時に
のみ行ってもよいし、プレスキャン時及びファインスキ
ャン時に各々行ってもよい。
Further, in the above, R, G,
B is read, and R, G,
Although an example of reading B and IR has been described, the present invention is not limited to this. IR reading may be performed only at the time of pre-scanning, or may be performed at the time of pre-scanning and fine scanning.

【0133】[0133]

【発明の効果】以上説明したように請求項1及び請求項
9記載の発明は、画像記録材料の画像記録領域に可視光
を照射して透過又は反射した可視光を検出することで得
られた可視画像情報、及び画像記録領域に非可視光を照
射して透過又は反射した非可視光を検出することで得ら
れた非可視画像情報を取得し、可視画像情報及び非可視
画像情報の少なくとも一方に対し、光学特性に起因する
双方の情報の差異を補正するようにしたので、低コスト
な構成で欠陥部の修正精度を向上させることが可能とな
る、という優れた効果を有する。
As described above, the first and ninth aspects of the present invention are obtained by irradiating an image recording area of an image recording material with visible light and detecting transmitted or reflected visible light. Obtain the visible image information, and the invisible image information obtained by irradiating the image recording area with the invisible light and detecting the transmitted or reflected invisible light, and at least one of the visible image information and the invisible image information On the other hand, since the difference between the two types of information caused by the optical characteristics is corrected, there is an excellent effect that it is possible to improve the correction accuracy of the defective portion with a low-cost configuration.

【0134】請求項2記載の発明は、請求項1の発明に
おいて、画像記録領域を透過又は反射した可視光を複数
の波長域毎に各々検出することで得られた複数の波長域
毎の可視画像情報及び非可視画像情報に対し、光学特性
に起因する前記各画像情報相互の差異を補正するように
したので、上記効果に加え、欠陥部の修正精度を更に向
上させることが可能となる、という効果を有する。
According to a second aspect of the present invention, in the first aspect of the present invention, the visible light in each of a plurality of wavelength ranges obtained by detecting the visible light transmitted or reflected through the image recording area in each of the plurality of wavelength ranges. For the image information and the invisible image information, since the difference between the respective image information caused by the optical characteristics is corrected, in addition to the above effects, it is possible to further improve the correction accuracy of the defective portion, It has the effect of.

【0135】請求項3記載の発明は、請求項1の発明に
おいて、結像レンズの倍率色収差又は歪曲収差に起因す
る各画像情報の画素位置のずれを補正するので、上記効
果に加え、結像レンズの倍率色収差又は歪曲収差に起因
する画素位置のずれにより、欠陥部の範囲が誤検出され
たり実際の欠陥部とずれた範囲が誤修正されることを防
止できる、という効果を有する。
According to a third aspect of the present invention, in the first aspect of the present invention, the displacement of the pixel position of each image information due to the chromatic aberration of magnification or distortion of the imaging lens is corrected. There is an effect that it is possible to prevent a range of a defective portion from being erroneously detected or a range deviated from an actual defective portion from being erroneously corrected due to a shift in a pixel position due to a magnification chromatic aberration or a distortion of a lens.

【0136】請求項4記載の発明は、請求項1の発明に
おいて、第1の光電変換素子と第2の光電変換素子の配
置位置の相違に起因する各画像情報の画素位置のずれを
補正するので、上記効果に加え、第1の光電変換素子と
第2の光電変換素子の配置位置の相違に起因する画素位
置のずれにより、欠陥部の範囲が誤検出されたり実際の
欠陥部とずれた範囲が誤修正されることを防止できる、
という効果を有する。
According to a fourth aspect of the present invention, in the first aspect of the present invention, the displacement of the pixel position of each image information due to the difference in the arrangement position of the first photoelectric conversion element and the second photoelectric conversion element is corrected. Therefore, in addition to the above-described effects, the range of the defective portion is erroneously detected or deviates from the actual defective portion due to a pixel position shift due to a difference in the arrangement position of the first photoelectric conversion element and the second photoelectric conversion element. The range can be prevented from being corrected incorrectly,
It has the effect of.

【0137】請求項5記載の発明は、請求項1の発明に
おいて、結像レンズの焦点距離の波長依存性に起因す
る、各画像情報が表す画像の鮮鋭度の差異を補正するの
で、上記効果に加え、結像レンズの焦点距離の波長依存
性に起因する鮮鋭度の差異により、欠陥部の範囲が誤検
出されたり欠陥部の修正に際して修正強度が不適正に設
定されることを防止できる、という効果を有する。
According to a fifth aspect of the present invention, in the first aspect of the present invention, a difference in sharpness of an image represented by each piece of image information due to the wavelength dependence of the focal length of the imaging lens is corrected. In addition, due to the difference in sharpness caused by the wavelength dependence of the focal length of the imaging lens, it is possible to prevent the range of the defective portion from being erroneously detected or to set the correction intensity improperly when correcting the defective portion. It has the effect of.

【0138】請求項6記載の発明は、請求項1の発明に
おいて、可視域を一部含む波長域の光が非可視光として
照射されることに起因する非可視光の検出光量の変化を
補正するので、上記効果に加え、非可視光の波長域が可
視域を一部含んでいることに起因する非可視光の検出光
量の変化によって、欠陥部の範囲が誤検出されたり欠陥
部の修正に際して修正強度が不適正に設定されることを
防止できる、という効果を有する。
According to a sixth aspect of the present invention, in the first aspect of the invention, a change in the detected light amount of the non-visible light caused by the irradiation of the light in the wavelength range partially including the visible range as the non-visible light is corrected. Therefore, in addition to the above effects, the range of the defective portion may be erroneously detected or the defective portion may be corrected due to a change in the detected light amount of the invisible light caused by the wavelength range of the invisible light partially including the visible range. In this case, the correction strength can be prevented from being set improperly.

【0139】請求項7記載の発明は、請求項1の発明に
おいて、画像記録材料を透過又は反射する光の画像記録
材料による減衰度の波長依存性に起因する、各検出手段
による検出光量の差異を補正するので、上記効果に加
え、欠陥部の範囲が誤検出されたり欠陥部の修正に際し
て修正強度が不適正に設定されることを防止できる、と
いう効果を有する。
According to a seventh aspect of the present invention, in the first aspect of the present invention, the difference in the amount of light detected by each detecting means due to the wavelength dependence of the attenuation of the light transmitted or reflected by the image recording material due to the image recording material. Is corrected, and in addition to the above-described effect, there is an effect that it is possible to prevent the range of the defective portion from being erroneously detected or to set the correction strength improperly when correcting the defective portion.

【0140】請求項10記載の発明は、画像記録材料の
画像記録領域に可視光を照射して透過又は反射した可視
光を検出することで得られた可視画像情報、及び画像記
録領域に非可視光を照射して透過又は反射した非可視光
を検出することで得られた非可視画像情報を取得する第
1のステップ、可視画像情報及び非可視画像情報の少な
くとも一方に対し、光学特性に起因する双方の情報の差
異を補正する第2のステップを含む処理をコンピュータ
に実行させるためのプログラムを記録媒体に記録したの
で、低コストな構成で欠陥部の修正精度を向上させるこ
とが可能となる、という優れた効果を有する。
According to a tenth aspect of the present invention, the visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the transmitted or reflected visible light and the non-visible image information A first step of acquiring invisible image information obtained by irradiating light and detecting transmitted or reflected invisible light, at least one of visible image information and invisible image information is caused by optical characteristics. Since the program for causing the computer to execute the process including the second step of correcting the difference between the two pieces of information is recorded on the recording medium, it is possible to improve the accuracy of correcting the defective portion with a low-cost configuration. , Which is an excellent effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本実施形態に係る画像処理システムの概略構
成図である。
FIG. 1 is a schematic configuration diagram of an image processing system according to an embodiment.

【図2】 フィルムスキャナの概略構成を示す斜視図で
ある。
FIG. 2 is a perspective view illustrating a schematic configuration of a film scanner.

【図3】 写真フィルムに照射する光の分光特性の一例
を示す線図である。
FIG. 3 is a diagram illustrating an example of spectral characteristics of light applied to a photographic film.

【図4】 欠陥部修正値決定処理の内容を示すフローチ
ャートである。
FIG. 4 is a flowchart showing the contents of a defective portion correction value determination process.

【図5】 歪曲収差補正及び倍率色収差補正を説明する
ための、(A)は画像に対して設定したxy座標系、
(B)はxP yP 座標系を示す概念図である。
FIG. 5A is an xy coordinate system set for an image for explaining distortion correction and lateral chromatic aberration correction;
(B) is a conceptual diagram showing an x P y P coordinate system.

【図6】 写真フィルムを透過する光の波長と透過光に
対する減衰度との関係の一例を示す線図である。
FIG. 6 is a diagram showing an example of the relationship between the wavelength of light transmitted through a photographic film and the degree of attenuation for transmitted light.

【図7】 (A)は画像データQ及び非鮮鋭マスク画像
データQUSのレスポンス特性の一例、(B)は画像デ
ータ(Q−QUS)のレスポンス特性の一例、(C)は
画像データQ及び鮮鋭度補正後の画像データQLのレス
ポンス特性の一例を各々示す線図である。
7A illustrates an example of response characteristics of image data Q and unsharp mask image data QUS, FIG. 7B illustrates an example of response characteristics of image data (Q-QUS), and FIG. 7C illustrates image data Q and sharpness. It is a diagram which shows each example of the response characteristic of the image data QL after degree correction.

【図8】 (A)は写真フィルムの傷及び異物が付いて
いない箇所、傷が付いている箇所、異物が付いている箇
所における光の透過を各々示す概念図、(B)は写真フ
ィルムのバック面に傷が付いている場合、(C)は写真
フィルムの乳剤面に傷が付いている場合の光の透過を各
々示す概念図である。
FIG. 8A is a conceptual diagram showing light transmission in a portion of a photographic film without a scratch and foreign matter, a portion with a scratch, and a portion with a foreign material, and FIG. (C) is a conceptual diagram showing light transmission when the back surface is scratched and (C) shows the light transmission when the emulsion surface of the photographic film is scratched.

【図9】 (A)はバック面に傷が付いている場合、
(B)は乳剤面に傷が付いている場合のR光、G光、B
光、IR光の透過光量の変化の一例を示す線図である。
FIG. 9A shows a case where the back surface is scratched.
(B) shows R light, G light, and B light when the emulsion surface is scratched.
FIG. 4 is a diagram illustrating an example of a change in transmitted light amount of light and IR light.

【図10】 本発明の他の実施形態に係るフィルムスキ
ャナの概略構成図である。
FIG. 10 is a schematic configuration diagram of a film scanner according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

12 フィルムスキャナ 14 画像処理装置 20 光源 23 フィルタユニット 26 写真フィルム 28 結像レンズ 30 エリアCCD 40 イメージプロセッサ 42 制御部 72 情報記憶媒体 12 Film Scanner 14 Image Processing Device 20 Light Source 23 Filter Unit 26 Photo Film 28 Imaging Lens 30 Area CCD 40 Image Processor 42 Controller 72 Information Storage Medium

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA02 BA19 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CD12 CE02 CH01 CH08 CH20 DB02 DB06 DB09 DC32 5C072 AA01 BA17 CA03 DA02 DA09 DA13 DA16 DA18 DA21 EA05 EA08 QA06 QA17 UA18 VA03 WA04 5C077 LL02 MM03 MP08 PP03 PP32 PP39 PP54 PQ12 PQ20 SS01 TT09 5C079 HB01 JA16 JA23 LA15 LA24 MA11 NA02 NA03 NA25 PA08 ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5B057 BA02 BA19 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CD12 CE02 CH01 CH08 CH20 DB02 DB06 DB09 DC32 5C072 AA01 BA17 CA03 DA02 DA09 DA13 DA16 DA18 DA21 EA05 EA08 QA06 VA03 5C077 LL02 MM03 MP08 PP03 PP32 PP39 PP54 PQ12 PQ20 SS01 TT09 5C079 HB01 JA16 JA23 LA15 LA24 MA11 NA02 NA03 NA25 PA08


RetroSearch is an open source project built by @garambo | Open a GitHub Issue

Search and Browse the WWW like it's 1997 | Search results from DuckDuckGo

HTML: 3.2 | Encoding: UTF-8 | Version: 0.7.4