デジタル一眼カメラ > CANON > EOS 5D Mark II ボディ
画素数 × bit深度 × コマ数 = 処理bit/s
50D 15100000 14 6.3 1331820000
5DmU 21100000 14 3.9 1152060000
ちょっとdigic4の処理能力を持て余してませんかね?
ちなみに5コマ/秒だと 1477000000
4.5コマ/秒は 1329300000 ←この辺が限界?
気になったのが、canonHPに5DmUの説明で「14bitで記録されたRAW画像を現像後TIFF16bitで保存すると階調性をフルに活かした画像を得ることができます。」
と書かれてますが、これって16bitRAWはやらなくても実現できることなのでしょうか?フルに活かすという意味は?
もし16bit深度なら
21100000×16×3.9=1316640000
どうなんでしょうね。
書込番号:8366750
0点
僕は、センサーから送られて来た信号をRAWデータにする前に新しいノイズリダクションのアルゴリズムが加わるのでその分時間がかかっているのだと推測しています。
キャノンの説明によると今回のセンサーには、ピクセル単位の今までと異なったノイズ処理がなされているそうです。
旧機種と単純には比較できないです。
それから、
16ビットTiFFは8ビットのものより階調が良いという程度の意味だと思います。
それは旧機種でも同じことが言えます。
実際の階調再現は、ダイナミックレンジが広くないと向上しないので、カタログスペックでは分からないので、実機の計測を待つしかないと思います。
書込番号:8366906
1点
> 14bitで記録されたRAW画像を現像後TIFF16bitで保存すると階調性をフルに活かした画像を得ることができます。」と書かれてますが、
> これってこれって16bitRAWはやらなくても実現できることなのでしょうか?
> フルに活かすという意味は?
14bitTIFFというフォーマットがないからです。
8bitの上は16bitだからなのです。
フルに活かす=14bitRAWの情報量を欠落させない、ということですから、
14bitTIFFでも15bitTIFFでも・・・100bitTIFFでも、
TIFF側のビット数が14より多ければいい訳です。
要は、8bitTIFFでは不十分なので、その次に存在するフォーマットの16bitTIFFで保存してください、ということです。
書込番号:8367039
3点
S&Lさん
なるほど、14ビットデータは16ビットTiFFなら階調を損なわないというだけの意味ということですか。変に難しく考えてしまいました。
ピクセル単位でのノイズリダクションも50Dには乗っていると思っていましたが、中級機と上級機ではやっぱりアルゴリズム等違うのかもしれませんね。
3.9コマで限界なのかもしれませんね。
希望を言えば、sRAW使った時にはコマ数アップして欲しかったです。
でも、いいなぁ。1年後いくらかなぁ。
書込番号:8367041
1点
数字の桁が多くて分かりづらいので、1,000単位で区切ってみます。
大まかな計算として仮に2,000万画素だと20,000,000画素、つまり20Mですね。連写のコマ数が7コマ/秒なら、140M画素/秒の処理ができなければ追いつきません。ビット深度が14ビットであっても2バイト並列処理ならと12ビットでも14ビットでも同じような気がします。
140M画素/秒は1画像の処理時間としては7nsです。最近のパソコンのCPUのクロック周波数は2GHz(0.5ns)以上あり、処理回路もそれ相応でしょうから、画像処理時間7nsはどのようなアルゴリズムで処理させているかによって、実現可能でしょう。
ビット深度14ビットで可能になっているのなら、16ビットまではいけると思います。
書込番号:8367097
0点
isoworldさん
2bitの差はデータ量の差であると思うので、単純に4倍のデータ量を演算する必要があり、
演算速度は非常に差が出ると思っていますが、どうなんでしょう。
おっしゃるとおり本当にたいしたこと無いのであれば、正に「出し惜しみ」だったということでしょうか?
書込番号:8367278
0点
大昔の雑誌記事の記憶で現状とはまた違うかもしれませんが、連写速度に映像エンジン(Digic)
の処理速度は関係ない旨のインタビュー記事がありました。
撮像素子から読み出された信号はいったんバッファに送られるので、バッファが一杯になる迄は
映像エンジンの処理速度に関係なく、トップスピードで連写できると書かれていました。
その記事には、初代Digicは当時600万画素の画像を1枚処理するのに約1秒かかったそうなの
ですが、バッファがあるために、初代Kissや10Dは約3コマ/秒を実現していたそうです。
連写速度のボトルネックはメカ的なものを除けば、撮像素子からの読み込み速度の影響が大きく、
一般に画素数が多ければ多いほど、また画素数が同じであっても撮像サイズが大きいほど
読み込みに時間がかかるそうです。
今のところ詳細は不明なのですが、もし読み出しチャンネル数が50Dと5Dmk2で同じであれば、
撮像サイズの違いが読み出し速度を遅くしている原因とも考えられそうです。
あくまでも古い記事の記憶で書いています。
最新のデジカメには当て嵌まらないかもしれません。
書込番号:8367348
1点
-> ヴェティーマニア さん
> 2bitの差はデータ量の差であると思うので、単純に4倍のデータ量を演算する必要があり、
> 演算速度は非常に差が出ると思っていますが、どうなんでしょう。
2itの差というのは扱える数値が4倍になるのであって、データ量そのものは
12→14bit(約17%アップ)になるのではないでしょうか。
実際に保存される画像の容量も4倍ではないですよね。
書込番号:8367417
1点
クリアグリーンさん
おはずかしい。そうですね。
じゃあやっぱり16bit深度は実現間近!?
書込番号:8367471
0点
T-Secさん
貴重な意見をありがとうございます。
撮像サイズ=受光サイズ?で転送速度が変わるということですかね?
僕にはちょっと想像できない分野です。すいません。
僕としてはdigic4の3.9コマが出し惜しみでなかったということを信じたいだけです。
書込番号:8367585
0点
-> ヴェティーマニア さん
> 撮像サイズ=受光サイズ?で転送速度が変わるということですかね?
わたしも雑誌記事の受け売りで技術的なことは詳しくないのですが、撮像素子のサイズが大きくなる
と転送経路が長くなるので、それだけ読み出しに時間がかかると言うことなのではないでしょうか。
書込番号:8367816
0点
3.9を4と言わないキャノンは偉いと、ふと、思った僕です(笑)。
僕なら間違いなく「4」って言うと思います。
書込番号:8367829
1点
> digic4の処理能力を持て余してませんかね?
同じDIGIC4のチップを使っているのなら、力を持て余しているということでしょうね。
3.9fpsという結果はDIGIC4ではないところに律速があるもとの思われます。
私はイメージセンサ→A/D変換チップの転送にかかる時間に律速があると予想しています。
撮像素子がAPS-Cとフルサイズで異なるので、信号を伝播しなければいけない距離が
物理的にえらく増えてしまいます。なので、フルサイズではそのあたりが苦しいのかなと。
A/D変換チップやDIGIC4の処理能力は同じなんでしょうけど。
書込番号:8369042
1点
2バイト並列処理すれば、14ビットでも16ビットでも(データ量は4倍違いますが)処理速度は変わらないと思います。ビット単位でのんきに画像処理しているとは思えません。
14ビットであるか16ビットであるかは撮像素子(CCDあるいはCMOS)とデジタル化の精度がどこまで取れるかによるのでしょう。画像処理LSI(エンジン)やアルゴリズムによる制約ではないはずです。14ビットと16ビットの4倍の精度差は大きいと思いますよ。
それから、T-Secさんの言われるように撮像素子のあとにバッファメモリーを付けておけば、画像処理はゆっくり出来ますから楽でしょう。ただしこの場合は連写可能枚数がバッファーメモリーの容量に依存します。
書込番号:8369408
0点
>3.9を4と言わないキャノンは偉いと、ふと、思った僕です(笑)。
僕なら間違いなく「4」って言うと思います。
実は3.85を四捨五入して3.9と言ってたりして。
書込番号:8369464
0点
>世界初(*)、すべてのハイビジョン映像を鮮鋭感、立体感ある14ビット相当の
高階調映像で出力するビデオ用高画質回路“CREAS(クリアス)”を開発
---ソニーはハイビジョンの分野では14 bitの映像処理をしているのに、カメラでは12 bitのものを発表したのが不思議です。スペック上の5連写を謳いたいために、cyber shotでも14 bitなのに12 bitに落として階調の滑らかさを犠牲にしている点は、大きな疑問です。
というのもこのカメラ風景以外にあまり使い勝手よくないのではないかと考えているからです。ハッセルブラッドなどのプロ機では16 bitということなので、ソニーが24.6 Mの高画素機に14 から 12 bitに退行させたのははなはだ疑問です。確かにJPEGでは8 bitで十分のようですがrawで微調整するときにトーンのとびがなくなるのは14 bitでの恩恵かと思われます。
ソニー自身も14 bitでは、鮮鋭感と立体感があると表現しているので、開発者インタビューなどで12 bitにしたことをどのように言い訳するか注目したいと思います。
Canonも1DsM3で21.2 M 14 bit 5連写を実現しているわけですので出し惜しみといえば出し惜しみといわれても仕方ないかなといった感想です。出し惜しみした分、早く値段が落ちるのではと予想します。
下のコピーはcybershotのときのものです。Sonyも14 bitのほうが優れていると認識していることが伺われます。
>ソニー独自のアルゴリズムで、CCDが受光した画像データに高精度な画像演算処理を行ないます。14bit DXP(Digital Extended Processor)との相乗効果で、よりなめらかでノイズの少ないクリアな画像を実現。従来比で約4倍高精度になった信号処理、高画質化処理、解像度変換、JPEG圧縮など、撮影にかかわる処理の高精度化と高速化を図っています。また、レンズやCCDのパフォーマンスを最大限に発揮させ、さらなる高画質、高速レスポンス、そしてスタミナ性能の向上に貢献。撮影シーンを忠実に、きわだつ美しさで再現し、撮影者のイメージに深く迫ります。
ちなみにNikon D300では、連射速度は
14ビットRAWに設定の場合は、最大連続撮影速度が約2.5コマ/秒になります。
とありますので、高速で画像を処理するのが大変なことが伺えます。
書込番号:8372308
1点
ホワイトマフラーさん
>ちなみにNikon D300では、連射速度は
14ビットRAWに設定の場合は、最大連続撮影速度が約2.5コマ/秒になります。
とありますので、高速で画像を処理するのが大変なことが伺えます。
え?結構遅いですね?50%以下ではないですか?
これは2bit分でCPUコストが掛かっている証拠とはいえないのでしょうかね。
書込番号:8373519
0点
> え?結構遅いですね?50%以下ではないですか?
> これは2bit分でCPUコストが掛かっている証拠とはいえないのでしょうかね。
連写速度については、演算時間もさることながら、データ転送時間が多く必要になりますので。
書込番号:8378692
0点
> ちなみにNikon D300では、連射速度は
> 14ビットRAWに設定の場合は、最大連続撮影速度が約2.5コマ/秒になります。
これは画像処理に時間がかかっているのではないです。
A/D変換をする際の時間が12bit精度と14bit精度では大きく時間が違うのが理由です。
詳細な言及は避けますが…
書込番号:8391795
0点
デジ(Digi)さん
えくすとりぃむさん
ということは、やっぱり2110万の14bitで、3.9コマは限界値に近いということですね。
当然A/Dコンバータ、Digic等の総合的な処理速度で限界であれば、
Dual Digic4が予想される次期1D系プロユースマシンについては、単純に2倍の処理速度を実現しにくいということなんですね。
大変参考になりました。
書込番号:8392666
0点
-> ヴェティーマニア さん
> ということは、やっぱり2110万の14bitで、3.9コマは限界値に近いということですね。
同じ2110万画素の14bitを採用するEOS-1Dsmk3が5コマ/秒を実現しているので、
まだ限界値とは言えないでしょう。
EOS-1Dsmk3(及び1Dmk3)では8チャンネル同時読み出しを行っています。
旧5DやEOS40Dは4チャンネル同時読み出し、Kiss系は2チャンネル同時読み出しです。
まだ詳細な情報がないのですが、おそらく今回の5Dmk2も4チャンネルではないでしょうか。
同時読み出しチャンネル数は製造の歩留まりに直結するそうです。
5D後継にはリーズナブルなフルサイズという課題(高くても良ければ1Dsmk3があるので)も
ありますから、4チャンネルに抑えたのではないでしょうか。
> 当然A/Dコンバータ、Digic等の総合的な処理速度で限界であれば、
わたし自身は連写速度は撮像素子からの読み込み速度に強く依存すると聞いています。
もちろん、他の部分がまったく関係ない訳ではないでしょうが…
ちなみにここで挙げられているD300が14bit時に連写速度が落ちる理由は既に回答にあります
ようにA/D変換による部分が大きいです。
最近のニコン機に使われている撮像素子は、素子内でA/D変換を担うソニーが開発した技術
が採用されています。ただD300の持つ素子内のA/D変換器が12bit対応なんです。
しかし、A/D変換器への出力信号クロックをそのままに入力信号速度を遅めることで、14bit
で取り出すという裏技的な方法を利用しているため、このときに連写速度が低下するんです。
D3やD90などのモデルは内部のA/D変換器自体が14bit対応なので、14bitにしても速度は低下
しません。D300の14bit時に速度が低下があるのはイレギュラーな仕様だと考えてください。
ちなみにキヤノンの撮像素子は素子内ではなく外部にA/D変換器を持ちます。
> Dual Digic4が予想される次期1D系プロユースマシンについては、単純に2倍の処理速度を実現しにくいと
いうことなんですね。
次期1D系のお話をされるならば、撮像素子からの読み込み速度はもちろん、10コマ/秒を超
えてくるにはメカや電源関係の問題も大きいかもしれませんね。
書込番号:8394912
3点
クリアグリーンさん
すばらしい!!良くそんな詳しい情報をご存知ですね。
なるほど、ニコンの機種は詳しく無いので知りませんでした。そういう事情があったのですね。
とても参考になりました。
>同じ2110万画素の14bitを採用するEOS-1Dsmk3が5コマ/秒を実現しているので、
まだ限界値とは言えないでしょう。
すいません。私が言いたかったのは、5Dmk2のシステムでは3.9コマが限界に近いのでは?という意味でした。(つまり出し惜しみしてないよというキヤノンの姿勢を感じたかった)
読み出し並列化の件や、A/Dコンバータ、DualDigic等コストをかければ、処理速度の限界はまだ何とでもなりそうですね。
また、連写速度で不満を言う人がいますが、この事を知っていたら維持だけでも十分と判断して欲しいですね。5Dシリーズは低価格高画質機のカテゴリーですから。
あと、博学な方なのでご存知でしたらお聞きしたいのですが、
5Dmk2のCMOS技術で、画素数を1000万画素に留めて低ノイズ&高感度系にしようとすると、
基本感度が200とか400になるとどこかで見たんですが、
これの意味は、効率良いセンサで低画素(一画素の面積が大きくなる)を作ると素子の受光量が多くなりすぎて飽和が早くなるということですかね?
つまり、ダイナミックレンジが広がらない限り、高画素化に進むことしか、センサーの効率化の恩恵を受けられないということですかね?
書込番号:8395304
1点
クリアグリーンさん
>最近のニコン機に使われている撮像素子は、素子内でA/D変換を担うソニーが開発した技術
が採用されています。ただD300の持つ素子内のA/D変換器が12bit対応なんです。
しかし、A/D変換器への出力信号クロックをそのままに入力信号速度を遅めることで、14bit
で取り出すという裏技的な方法を利用しているため、このときに連写速度が低下するんです。
--- 詳しい情報ありがとうございました。大変参考になりました。
そこで質問なんですが、
質問(1)ニコンのように12/14 bit変換をユーザーが選択できると、単純計算で連写速度が4.5くらいになってユーザーの選択の幅が広がるような気がするのですが、14bitのものを12bitにするのはファームアップ等で対応できるほど簡単ではないのですか?
ニコンでは読み出しチャンネル数を12チャンネルにして連写速度を上げているような記述があるのですが、
質問(2)12チャンネル読み出しは4チャンネル読み出しより処理速度が3倍速いと考えてよいのですか?
書込番号:8397416
0点
> 5Dmk2のCMOS技術で、画素数を1000万画素に留めて低ノイズ&高感度系にしようとすると、
> 基本感度が200とか400になるとどこかで見たんですが、
> これの意味は、効率良いセンサで低画素(一画素の面積が大きくなる)を作ると素子の受光量が多くなりすぎて飽和が早くなるということですかね?
撮像素子に於いて光電効果により電荷を発生させているのはフォトダイオード部分ですが、その
電荷を溜め込んでいるのもこのフォトダイオードです。フォトダイオード部分が大きければ溜め
られる電荷も多くなります。
撮像素子のサイズが同じであれば、画素数が少ない(画素ピッチが大きい)ほどフォトダイオード
部分は大きいので、建前上は低画素だからと言って飽和しやすかったり、基本感度がアップする
と言ったことはないでしょう(出力はアップするでしょうが…)。
現実の素子ではマイクロレンズのギャップをなくすなどのさまざまな工夫が施されているので、
それらすべてを踏まえるとどうなるのか分かりませんが…
> つまり、ダイナミックレンジが広がらない限り、高画素化に進むことしか、センサーの効率化の恩恵を受けられないということですかね?
上述のように溜められる電荷の量はフォトダイオードの大きさに依存するので、決して高画素化
だけが撮像素子の効率化の恩恵を受けられる訳ではないでしょう。
撮像素子のダイナミックレンジを上げる技術はさまざまな方法が考案されています。
これらは公開特許を検索して頂くと、各社いろいろなアプローチがあるのが分かります。
キヤノンはCMOS上の電荷を一時的に他場所に退避させる技術を確立し、既に実用化しています。
現在これは残留ノイズを除去するために用いられていますが、飽和する前に他場所に退避できれ
ば、大幅にダイナミックレンジを広げることもできるのではないかと考えられています。
書込番号:8397426
3点
-> ホワイトマフラー さん
> 質問(1)ニコンのように12/14 bit変換をユーザーが選択できると、単純計算で連写速度が4.5くらいになってユーザーの選択の幅が広がるような気がするのですが、14bitのものを12bitにするのはファームアップ等で対応できるほど簡単ではないのですか?
14bitで読み出された情報の下位2bitを捨てる、あるいは下位2bitの回路を使用しないことで
12bit記録にすることは可能だと思いますが、これですと連写速度を上げることは不可能でしょう。
最近のニコンが採用する撮像素子は素子内にA/D変換器があり、出力が既にデジタル信号になって
います。これはソニーが開発した技術です。
一方、キヤノンの撮像素子はアナログで出力され、外部のA/D変換器でデジタル信号に変換されて
います。外部にあるA/D変換器を12bit扱いとしたところで、撮像素子の読み出し速度は変わらない
でしょう。
> 質問(2)12チャンネル読み出しは4チャンネル読み出しより処理速度が3倍速いと考えてよいのですか?
読み出し時間を短縮するには、多チャンネル化以外に、読み出し速度(タイミング)そのものを上げ
る方法があります。パソコン(CPU)で言えば多チャンネル化はデュアルコアやクアッドコアのような
マルチコア、読み出し速度(タイミング)はクロック周波数のようなものです。
チャンネル数を増やす以外のアプローチがある以上、チャンネル数だけで速度を決められないの
ですが、多い方が速度的に有利であることは間違いありません。
CPUでは、シングルコアの方が実はクロック周波数そのものは(僅かだが)上げやすい…という事実
があるようで、もしかすると撮像素子にもそのようなものがあるのかもしれません。
となると12チャンネルは4チャンネルの3倍といった単純な計算通りにはいかないでしょう。
ここまで詳しくは知らないのですが…
書込番号:8397543
3点
クリアグリーンさん
分かりやすい説明ありがとうございました。
今後は画素数、スピードのみならず、ダイナミックレンジ拡大の方向への改良も期待されるわけですが、いろいろなファクターがあり、各メーカーがどのようにして開発してくるかますます注目されます。
ところで、D300の板など読んでいると、12bitでも14bitでも出てくる絵は大差ないような書き込みも見受けられる一方、中判や大判カメラでは16bitで変換しているというようなことも聞きます。16bitにする利点、欠点、35mm判で意味あるか、現時点でどのbit数がベストかという点はどうですか?
参考
2007/12/11 13:09 [7100192]
2008/07/23 12:14 [8116637]
2008/07/16 20:54 [8087017]
書込番号:8397738
0点
クリアグリーンさん
画素数を留めても、基本感度が上がる事は無いということ、理解しました。
「バケツの数が減っても、バケツが大きくなるので、満タンになるまでの時間は同じ」
ということですね。
ならば、画素数を下げれば(抑えれば)ダイナミックレンジが広がるというのは、都市伝説みたいなものだったんですね。
また、出力レベルは大きくなる事でS/N比は良くなるので
「低画素ほどノイズ耐性が良くなる」
は合っていそうですね。
うーん。今後の方向性としては、レンズの解像度の限界を超えないようにそろそろ画素数アップは緩やかになるのでしょうかね?
それとも、ベイヤー4ピクセルで1ドットの信号を作る(デモザイク無し)とか、RBG以外の例えばV(紫)を加えるとかする為に、更なる画素数アップに進む?
どちらにしてもダイナミックレンジの拡大は画素数とノイズの関係とは少しずれているのですね?
いくらbit深度が増えても、同じレンジを細かくしたところで(僕にとっては)あまりメリット感じません。
レンジ拡大の技術としてはフジが最近発表した新型ハニカムも気になります。
私が5Dシリーズに求めていたのは、
「高画素数&低ノイズの高画質低価格機」ではなくて、
「高ダイナミックレンジ&低ノイズの高画質低価格機」だったような気がしてきました。
あと、元祖5Dと同じ程度の画素数で4チャンネル読み出しのまま、DIGIC4なら、十分6.3〜7コマ程度はいけるのでしょうね。
希望する人が多いフルサイズのリトル1Dは可能性無くは無いんですね。
書込番号:8399987
0点
-> ホワイトマフラー さん
> ところで、D300の板など読んでいると、12bitでも14bitでも出てくる絵は大差ないような書き込みも見受けられる一方、中判や大判カメラでは16bitで変換しているというようなことも聞きます。16bitにする利点、欠点、35mm判で意味あるか、現時点でどのbit数がベストかという点はどうですか?
まず、12bitと14bitの違いは決して大きくはないでしょうが、デリケートな部分で差が出ている
ようです。その差などはレタッチ耐性の違いとして説明されることが多いのですが、夕焼けなど
単色のグラデーション及び白飛び直前の色転びなどにも効果が見られるようです。
明るい部分で白飛びするのはある意味やむを得ないのですが、人肌などではハイライト部分で
いったん黄色に色転びしたうえ、白飛びすることがあったのですが、これは階調が足りないため
と言われていました。
画質を決定する要素に対し、技術的にみて容易に解決できる問題と困難な問題があります。
階調深度(bit数)に関しては、効果は決して大きくないのですが技術的には難しくない問題だと
考えています。あとは処理速度や容量などの絡みの問題となるでしょう。
結局のところ、バランスの問題ですので、画素数と連写速度の関係が風景カメラマンとスポーツ
カメラマンで要求が異なるのと同じで、万人にベストなポイントは見付からないかもしれません。
中判以上のモデルで16bitが多用されるのは、A/D変換器の問題があるのではないでしょうか。
もともと出荷数の多いデジイチでは専用のユニットを作ることが可能なのでしょうが、出荷数が
限られるモデルでは専用ユニットの開発はコストの問題から難しくなります。
…が、音声のデジタル化などの分野で既に優秀な16bitのA/D変換器が存在するので、これを
流用している可能性が高いと想像するのですがいかがでしょうか。
書込番号:8403642
1点
-> ヴェティーマニア さん
> ならば、画素数を下げれば(抑えれば)ダイナミックレンジが広がるというのは、都市伝説みたいなものだったんですね。
まぁ、これがなかなか難しいところでして、先ほど申したように現実の素子ではマイクロレンズの
ギャップをなくすなどのさまざまな工夫が施されているので、それらを踏まえるとどうなるのか
分かりません。
例えば、5μmの画素ピッチを持っていても配線などの関係で実際のフォトダイオードの大きさは
それより小さくなります。それを補おうとフォトダイオードの前にはマイクロレンズが搭載されて
います。
バケツの例で言うと、バケツがびっしり隙間なく列べられているのではなく、結構大きな隙間が
あり、そのバケツに大きな漏斗が付いているようなものだとお考え下さい。漏斗(画素ピッチ)が
大きいからと言って必ずしもバケツ(フォトダイオード)も大きいとは限らないんです。
技術の進歩により、配線はドンドン微細化していますので、同じ画素数であればフォトダイオード
は大きくできる(ダイナミックレンジを広げられる)のでしょうが、現実には画素数が増えています。
画素ピッチと現実のフォトダイオードの面積割合が維持していれば、高画素化してもダイナミック
レンジは維持できると思われます。逆に画素数を維持するならばダイナミックレンジは上げられる
可能性がありそうですね。
> うーん。今後の方向性としては、レンズの解像度の限界を超えないようにそろそろ画素数アップは緩やかになるのでしょうかね?
まぁ、これは卵が先が鶏が先かではありませんが、撮像素子がレンズの解像度の限界を超えても
問題ないでしょう。撮像素子の場合、ベイヤー補間の問題がありますのでややこしいのですが、
銀塩フィルムでは合成解像力の考え方があります。
100本/mmのレンズに200本/mmのフィルムを使うと、合成解像力は約66.7本/mmになります。
同じく100本/mmのレンズに300本/mmのフィルムでは、75本/mmになります。
# 合成解像力の公式 1/R=1/Rl+1/Rf (R:合成解像力 Rl:レンズの解像力 Rf:フィルムの解像力)
フィルムがレンズの解像力を超えてもちゃんと意味があるという証拠なんです。
撮像素子にも同じことが言えるのではないでしょうか。
> それとも、ベイヤー4ピクセルで1ドットの信号を作る(デモザイク無し)とか、RBG以外の例えばV(紫)を加えるとかする為に、更なる画素数アップに進む?
こうした試みって過去にソニーが行ったことありましたね。
RGB以外ににE(エメラルド)を搭載し、人間の視覚特性に近付けたそうです。
ただ、あまり結果は芳しくなかったようで… (^_^ゞ
# http://www.sony.co.jp/SonyInfo/News/Press_Archive/200307/03-029/
> あと、元祖5Dと同じ程度の画素数で4チャンネル読み出しのまま、DIGIC4なら、十分6.3〜7コマ程度はいけるのでしょうね。
画素数を抑えれば、もう少し高速な連写は可能だったとは思いますが、それは撮像素子の読み出し
速度の問題で、今までのお話の流れから映像エンジンDigic4はあまり関係ないものと推測致します。
書込番号:8403644
1点
クリアグリーンさん
素子面積が大きいほどダイナミックレンジが広かったのは、この説明でしっかり理解できたと思います。
技術が進んで枠(センサ以外の場所)が極小化しても、画素数が上がれば枠の数もそれだけ必要ということですね。
同一面積で画素数を増やしながら、ダイナミックレンジを拡大することは本当に難しそうですね。
合成解像力の公式、なるほどというか、そういうもんなんですね。勉強になります。
フィルムネガ+α程度のダイナミックレンジを実現してから、高画素に進んで欲しいです。
ソニーのエメラルドはGの一つを置き換えたやり方ですね。
もっと多くの例えば9個の素子でもっと多くの種類の波長を捕らえられれば、もっと自然な色が表現できるのではないかと思っています。(やっぱり画像エンジンでの絵作り領域は減らしたいので)
GBY
BRV
ROG
(RGB+黄色、オレンジ、紫)みたいな。
RGBは高輝度用、低輝度用を一つずつとかすれば、DRも上がりそうです。
赤と青の混ざった光ではなく、紫色の単色光は今は全くの予想で作っているのですよね?
「人の目には鈍感な波長なので必要無い」のでしょうかね?
それとも、「RGBでしっかり予想できるので必要ない」のでしょうか?
虹の内側の色がどう出るか見ると各社の違いが分かりますか?
質問責めで恐縮です。
しかし、どんな疑問をぶつけても、的確に解答していただけるのでありがたいです。
書込番号:8406583
0点
> バケツの例で言うと、バケツがびっしり隙間なく列べられているのではなく、結構大きな隙間が
> あり、そのバケツに大きな漏斗が付いているようなものだとお考え下さい。漏斗(画素ピッチ)が
> 大きいからと言って必ずしもバケツ(フォトダイオード)も大きいとは限らないんです。
フォトダイオードが大きい場合と、オンチップ・マイクロレンズが隙間無く並べてある場合と、どちらが有理か、あるいは同等なのかということは調べる必要があるでしょう。
純粋にフォトダイオードが大きいことに超したことはないけれども、マイクロレンズの集光率を上げることでそれ(ダイナミックレンジ、または感度)を補えるのかどうかということです。
またキヤノンが今回述べているように、それぞれの配置関係で集光効率も違ってくるので、上のファクタだけが総てではないこと。
あと5DUでは色フィルターの透過率も向上していますね。
CMOS駆動電圧を下げることでアンプ系に関わるノイズも下がるというアナウンスもありました。(これが5DUに採用されているかは不明)
書込番号:8406695
1点
ソニータムロンコニカミノルタさん
>CMOS駆動電圧を下げることでアンプ系に関わるノイズも下がるという
これは、低シグナルから信号が使えるということで、同じバケツでもダイナミックレンジが上がりそうなのは予想できますが、
マイクロレンズの集光率、色フィルターの透過率、等の話は、バケツに注ぎ込む水の量を増やすだけなので、高感度にはいいでしょうが、ダイナミックレンジは変わらないように感じます。
クリアグリーンさんが
>キヤノンはCMOS上の電荷を一時的に他場所に退避させる技術を確立し、既に実用化しています。
現在これは残留ノイズを除去するために用いられていますが、飽和する前に他場所に退避できれ
ば、大幅にダイナミックレンジを広げることもできるのではないかと考えられています。
と言われていますが、
ダイナミックレンジの拡大にcanonはどのぐらい積極的なんでしょうね?
やはり画素数アップ+感度アップが一番効率がいいのでしょうかね?
書込番号:8406944
0点
ヴェティーマニアさん
>高感度にはいいでしょうが、ダイナミックレンジは変わらないように感じます。
高感度とダイナミックレンジは言葉の相違だけで、カメラ内部ではレベルダイヤの設定次第なので同じことです。
(素子のカタログには勿論、標準感度と飽和レベルが書かれますが、それをどう割り振ろうとカメラ側の勝手ですので)
素子のノイズレベルと飽和レベルが、それぞれLSBレベルとフルビットレベルに合致したときに最大の能力を引き出せるので、通常はどちらかに偏らないように内部のレベルダイヤが設計されます。
ユーザーからは、少なくとも見かけ上のISO感度は知る必要があるので、それを主眼にし、尚かつ各回路のダイナミックに応じてレベルダイヤの設定が行われます。
フォトダイオードが大きくなった場合、おそらくノイズレベルは変わらず感度と飽和レベルが上がり、ハイライト側に伸びることになりますが、結果、そのレベルがフルビットレベル以上になってもデジタルデータとして再現できないため意味がありません。
よってその場合A/D以前でレベルを下げる設定が行われます。
よって相対的にノイズレベルが下がります。
マイクロレンズが大きくなった場合、受光感度が上がりますが飽和レベルは勿論変わりません。
感度が上がるので、同じ光量ならアンプゲインを下げることになり、対被写体光量比でノイズが減ることになります。
(ユーザーから見た、見かけのISO感度とは別問題です)
このように、内部のレベル設定など複雑な絡みがあるので、一部のスペックだけであまり簡単に結論づけられるものではないと思いますよ。
書込番号:8407129
1点
ソニータムロンコニカミノルタさん
この辺の話、もう少し理解を深めさせてください。
受光素子が光を受けた後、どこで増幅しているのか。
私の素人考えでは、
受光素子一つ一つにアンプが付いているとしても、アナログ信号の電荷が受光素子で決定してからのように思っています。つまり、シャッターが開いて閉じた後に各素子内にある電荷が決定するまで増幅しない。
で、その増幅前の電荷の最低値と最大値の差がダイナミックレンジと考えています。
つまり素子の性能という考えです。
これを元に増幅、減感して、それを14bitなりでデジタル化する。
カメラで言うラティチュードとはここで決定される。
こういう理解であっているでしょうか?
こう考えると私は素子自体のダイナミックレンジを大きくして欲しいと考えるようになったのです。
書込番号:8407340
0点
ヴェティーマニアさん
光の情報をデジタル化するには、A/D変換器という純電気的なデバイスに電圧信号として供給しなければなりません。
CMOSの出力信号レベルとA/D変換器の入力レベルにはズレがあること、またISO感度の切り替えのためにゲインが可変出来るアンプを設けています。
ISO100が基本感度とすると、ISO1600にするためにはここで16倍にゲインを高めたアンプを使うということです。
ラチチュードとダイナミックレンジの語意は同じとして良いですが、一般的に多くの人が考えることは間違っていますので注意が必要です。
特にハイライト側、白飛びとフルビットの関係を理解していない人が多いようです。
書込番号:8407443
1点
すいません。
この部分合っています。
失礼しました。
>シャッターが開いて閉じた後に各素子内にある電荷が決定するまで増幅しない。
>で、その増幅前の電荷の最低値と最大値の差がダイナミックレンジと考えています。
>つまり素子の性能という考えです。
書込番号:8407529
1点
ソニータムロンコニカミノルタさん
すばやい返信ありがとうございます。
>特にハイライト側、白飛びとフルビットの関係を理解していない人が多いようです。
フルビットでなくても白飛びするということですか?
10〜100個の電荷を100倍に増幅して1000〜10000の範囲を得る
10〜100個の電荷を1000倍に増幅して10000〜100000の範囲を得る
暗い場所で電荷が1〜10個の時1000倍に増幅で1000〜10000の範囲
いずれも最大10倍の明暗差しか表現できません。
仮に素子レベルのダイナミックレンジが上がって、1〜50、あるいは10〜500の電荷を得られる素子があれば、50倍の明暗を表現できますね。
今のA/D変換後のレンジがこの10倍の範囲内で十分収まるなら、ダイナミックレンジ拡大の研究より、感度アップか画素数アップの研究に注力した方が良いでしょうが、10倍に近くなってくると、やっぱり必要ですよね。
現状はどうなのでしょう?
というか、私の言っていることは見当違い?
書込番号:8407841
0点
あーわかった。
書いたのを読み返しているうちに分かりました。
ソニータムロンコニカミノルタさん
理解が遅くてすいません。
>10〜100個の電荷を100倍に増幅して1000〜10000の範囲を得る
10〜100個の電荷を1000倍に増幅して10000〜100000の範囲を得る
暗い場所で電荷が1〜10個の時1000倍に増幅で1000〜10000の範囲
いずれも最大10倍の明暗差しか表現できません。
この時点でこの素子は100個まで電荷を貯められるので、暗いところでも明るいところでも
100個までいけます。
次に低シグナルではノイズに埋もれてしまうため、例えば20ぐらいからしか使えなかった場合、この素子の適正な範囲20〜100個が得られる時間露光する様に調節して使うと一番効率的に素子を使えるいうことですね?
そこで、感度アップができると適正範囲の下限20が10とかになって、10〜100でレンジが拡大する。
他方、画素数を減らしてバケツを大きくした場合、20〜200になったとしても、
いずれも増幅後は1000〜10000に出来て、レンジは10倍ですね!
あーすっきりした!!!!
書込番号:8407996
1点
クリアグリーンさん
お返事遅れて申し訳ありません。わざわざご回答いただきありがとうございました。とてもわかりやすい表現で助かりました。他の書き込みも大変参考になるものばかりで読み応えがあります。
>結局のところ、バランスの問題ですので、画素数と連写速度の関係が風景カメラマンとスポーツカメラマンで要求が異なるのと同じで、万人にベストなポイントは見付からないかもしれません。
--- なるほど、5DM2に対する、賛否などもこのような背景があるのですね。
>音声のデジタル化などの分野で既に優秀な16bitのA/D変換器が存在するので、これを流用している可能性が高いと
--- なるほど、これは気が付きませんでした。
書込番号:8408736
0点
-> ヴェティーマニア さん
> もっと多くの例えば9個の素子でもっと多くの種類の波長を捕らえられれば、もっと自然な色が表現できる
のではないかと思っています。(やっぱり画像エンジンでの絵作り領域は減らしたいので)
これは非常に難しいのではないかと考えています。
光の三原色(赤・緑・青)で可視光線のすべての色を再現できることは御存知だと思いますが、
これは人間が、赤・緑・青の光を捉える視細胞を持つためです。
つまり建前上、RGBの三色のフィルターですべての色彩を再現可能なんです。
ただやっかいなことに、人間には負の分光感度と呼ばれる特定の波長で感度が低下する現象
が存在するために、三色のフィルターでは完全に人間の視覚特性に合わせられないんです。
ソニーが採用したエメラルドフィルターやフジフイルムが銀塩で第四の感色層と宣伝したの
は、この負の分光感度を実現するものです。
視細胞の捉える波長(分光感度)に個人差があるうえ、年齢と共に変化するのであまり厳密な
色再現を求めても仕方ないのかもしれません。もともと目には環境光に合わせ順応する性質
を持ちますし、光源によっても色再現が変化します。
ただ興味深いのは、フォビオンに見られるようなシリコンへの吸収層の違いを利用すること
で色を読み取るようなシステムでは(原理的には)どんな波長でも捉えることが可能な点です。
フォビオンのようなシステムでは、原理として可視光どころか赤外線や紫外線も同時に検出
することが可能です。通常の写真はもちろん、同時に赤外写真や紫外写真も撮影することも
できるようです(現実のフォビオン素子ではこれに対応していません)。
まだまだフォビオンは色分離の点で問題を抱えていますが、将来的にはこのようなシステム
へ移行するのかもしれませんね。
> 赤と青の混ざった光ではなく、紫色の単色光は今は全くの予想で作っているのですよね?
> 「人の目には鈍感な波長なので必要無い」のでしょうかね?
> それとも、「RGBでしっかり予想できるので必要ない」のでしょうか?
虹でいう青の外側の波長を持つ紫はデジカメでは予想ではなく、まったく作っていないもの
と思われます。純粋に単色の紫はRGGB型の現在のデジカメでは再現不可能でしょう。紫色の
衣装や花などどうしても再現不可な色彩があったりしますが、これが原因かと思います。
> 虹の内側の色がどう出るか見ると各社の違いが分かりますか?
各社の画作りの違いによる発色に差があるとは思いますが、単色の紫に関してはほぼ手付か
ず状態に近いと感じています。どんな色になるかは成り行き任せのような…
書込番号:8408832
2点
クリアグリーンさん
http://ja.wikipedia.org/wiki/%E8%89%B2
で調べました。
なるほど、人間の目もRGB素子と同様の方法で色を認識しているのですね。
また、暗いところで形優先で認識する桿体細胞も波長498nmをピークに感じるので
人間の緑色に対して敏感という理由が分かります。
RGGBでG二つの理由がなんとなく分かります。
またS錐体は他のL,M錐体より感じる波長の範囲が広いですね。この辺が原色紫をカバーしているとしたら、Bセンサーだけ広い範囲で受光する様に原色フィルターの改良すればいいのでしょうか?
今のCMOSセンサーは同じ受光センサーの表面に原色フィルタを置き透過した各色の光だけを電気信号に変えているのですよね?
この光センサーというものは、受光する光の波長に対しての特性は無いものなのでしょうか?
つまり、R用、G用、B用と波長ごと最適なセンサーにする必要はあるのか?
>まだまだフォビオンは色分離の点で問題を抱えていますが、将来的にはこのようなシステムへ移行するのかもしれませんね。
クリアグリーンさんは三層(多層)素子へ向かうと予想されていますが、このセンサは全波長を取り込み紫も分かりそうですね。
現在のベイヤーでのもう一段の技術革新として、明暗のダイナミックレンジ以外に、色域のレンジ拡大(紫方向)が進めばすばらしいですね。
>虹でいう青の外側の波長を持つ紫はデジカメでは予想ではなく、まったく作っていないもの
と思われます。純粋に単色の紫はRGGB型の現在のデジカメでは再現不可能でしょう。紫色の
衣装や花などどうしても再現不可な色彩があったりしますが、これが原因かと思います。
クリアグリーンさんは、ここが難しいから、三層に進むとお考えなのでしょうか。
とにかくデジカメの構造を知る上で大変有益でした。ありがとうございます。
書込番号:8413491
0点
-> ヴェティーマニア さん
> またS錐体は他のL,M錐体より感じる波長の範囲が広いですね。この辺が原色紫をカバーしているとしたら、Bセンサーだけ広い範囲で受光する様に原色フィルターの改良すればいいのでしょうか?
Bの受光波長範囲を広げると単色の紫を感光させることはできると思いますが、それは青として
しか再現されず、紫として再現することは不可能でしょう。青と紫の区別ができないハズです。
もし単純に考えるとすれば、Bに加えRを単色の紫領域で透過させるようにすると、この領域で
BとRが混ざり合い、紫を再現できるものと思われます。
…がこの方法も盲点があります。
こうすると光源のスペクトル特性に強い影響を受け、適切なカラーバランスが保てないという
問題が発生します。
この価格ドットコムではよく紹介されるサイトですが、以下が参考になるかと思います。
# http://f42.aaa.livedoor.jp/~bands/purple/purple.html
> 今のCMOSセンサーは同じ受光センサーの表面に原色フィルタを置き透過した各色の光だけを電気信号に変えているのですよね?
> この光センサーというものは、受光する光の波長に対しての特性は無いものなのでしょうか?
> つまり、R用、G用、B用と波長ごと最適なセンサーにする必要はあるのか?
光電効果に波長依存性があるのは知られていますが、線形性が高いので補正は容易でしょう。
RGBそれぞれに最適なセンサーにするのではなく、RGBフィルターの分光透過特性をセンサーに
合わせる方がより合理的かと思います。
> クリアグリーンさんは、ここが難しいから、三層に進むとお考えなのでしょうか。
フォビオンに見られるような三層の素子にはさまざまな特徴があります。
色の分離性さえ良ければ、非常に大きな可能性を秘めているのは事実でしょう。
例えば、原理的に見れば高感度はベイヤー型より三層型の方が有利だったりするそうです。
ベイヤー原色型ではカラーフィルターにてわざわざ2/3に光量を落として受光しているのですが、
三層型ではすべての光を評価することが可能です。
原理上は特定の波長を検出できるので赤外カットフィルターや紫外カットフィルターも必要あり
ません。ローパスフィルターは本当は要るのですが、必要性は低いと言われています。
ただ、三層型には色の分離や製造の歩留まりを初めとしてさまざまな問題点があるのも事実です。
キヤノンは三層型の素子に関し、いくつもの特許を出願していることはよく知られています。
内部ではそれなりに研究開発を行っているものと思われます。
ベイヤー型も進化を続けると思われますので、三層型の進化次第という部分が大きいのですが、
ベイヤー型で苦戦していたことが三層型ではあっさり解決できる問題も多く、今後の可能性の
ひとつとして十分考えられるのではないでしょうか。
書込番号:8413682
1点
このスレッドに書き込まれているキーワード
「CANON > EOS 5D Mark II ボディ」の新着クチコミ
| 内容・タイトル | 返信数 | 最終投稿日時 |
|---|---|---|
| 31 | 2024/07/04 19:40:43 | |
| 12 | 2024/03/11 18:12:39 | |
| 9 | 2023/07/23 10:51:49 | |
| 7 | 2024/03/28 9:33:40 | |
| 13 | 2022/11/22 18:37:17 | |
| 15 | 2022/11/11 22:06:50 | |
| 5 | 2022/06/24 1:50:40 | |
| 4 | 2022/01/05 11:53:07 | |
| 4 | 2022/01/04 13:33:57 | |
| 19 | 2021/10/07 23:35:53 |
クチコミ掲示板検索
新着ピックアップリスト
-
【欲しいものリスト】200V脱衣所暖房
-
【欲しいものリスト】自作PC2025
-
【欲しいものリスト】カメラ+レンズ
-
【欲しいものリスト】O11D mini v2 White SL no LCD build
価格.comマガジン
注目トピックス
(カメラ)
デジタル一眼カメラ
(最近3年以内の発売・登録)









