デジタル一眼カメラ > CANON > EOS 5D ボディ
無関係というか、RAWデータをデコードする際には影響を与えませんね。
書込番号:6738352
2点
そうでしょうか?
私の考えを聞いてください。
RAWファイルをデコードする時もDIGICプロセッサを使って演算しますよね?
DIGICVになったからRAWも含めて連射の連続枚数が上がったのではないでしょうか?
バッファメモリの増強も当然関係ありますが、演算スピードの上昇も必要な気がします。
また、14bit化も演算力が必要な気がします。
どうなんでしょうか。
書込番号:6738414
1点
RAWファイルをデコードするのですから、PC上で行うわけです。
それぞれのPCにDIGICが乗っているわけではないです。
ファイル自体にはサムネール用の埋め込みJPEGなどありますし、おっしゃるようにファイル記録の仕事も含めてDIGICでしょうが、RAWデータ(ピクセル毎の素のサンプリング値)には影響しませんね。
書込番号:6738465
3点
>RAWファイルをデコードする時もDIGICプロセッサを使って演算しますよね?
>DIGICVになったからRAWも含めて連射の連続枚数が上がったのではないでしょうか?
勿論内部JPEG生成のためにはRAWを演算します。
RAW出力のデータには関係ありません。
RAW撮りオンリーでも連写能力はDIGICのスピードに影響されます。
書込番号:6738473
2点
映像エンジン(画像エンジン)と言う用語を検索すると、JPEGを生成するだけの様に書かれてることもありますが、それだけではないのですよね?
DIGICは動画生成の回路もありますけど、写真撮影ならJPEGでもその回路は使わない。
RAWならJPEG生成の回路と動画生成の回路は使わないという風に用途によってDIGICの全部〜1部を使うと言う事ですよね?
書込番号:6738502
0点
デコードとエンコードを間違えてました。
CMOSからのデータをRAWファイルにする部分の演算(エンコード)は
DIGICがやるのではないかという意味でした。すいません。
40DでRAW14bitという新機能がありますが、これはDIGICでRAWファイルを作るときに14bitで処理するということでしょうか?それとも、CMOSからのデータが14bitで来るということでしょうか?
書込番号:6738510
0点
CMOSからのデータを14bitA/Dコンバータで変換してDIGIC IIIで処理し、14bitRAWデータとして記録します。
書込番号:6738584
4点
CMOSにADを載せているとは聞いてないからCMOSイメージセンサーからの読み出し->ADC(ここが14bit以上の深度)->キヤノンのRAWファイルフォーマットに従いそのデータを記録する際に上位のbitを選択し14bitを記録…で良いはずです。
ま、普通にADCも14bit深度でそのまま記録すると考えてください。
14bit化はデータがそれだけ増えると思ってください。
ソニータムロンコニカミノルタさんが書いているように、カメラのレスポンスには結果的に関わっています>DIGIC
書込番号:6738585
2点
勉強になりました。
Canonかも?さん のスレを、自分の質問に使ってしまってすいません。
失礼します。
書込番号:6738661
0点
CMOSのデータそのままでRAWなわけ無いでしょ。
これを生成するのはどこでしょうね?
書込番号:6739120
1点
>CMOSのデータそのままでRAWなわけ無いでしょ。
CMOS→A/DでそのままRAWですよ。
書込番号:6739147
1点
booponさん、以下を参照されてはいかがですか?
http://bbs.kakaku.com/bbs/Main.asp?SortID=6338892&Reload=%8C%9F%8D%F5&ProductID=&BBSTabNo=6&CategoryCD=&ItemCD=&MakerCD=
書込番号:6739221
0点
>> CMOSのデータそのままでRAWなわけ無いでしょ。
>
> CMOS→A/DでそのままRAWですよ。
...と思いがちですが、カメラによってはノイズ低減、トーンカーブ調整等の処理を画像エンジンが行うので、必ずしも「素」のA/D変換されたデータがrawファイルに記録されている訳ではありません。
書込番号:6739502
0点
>...と思いがちですが、カメラによってはノイズ低減、トーンカーブ調整等の処理を画像エンジンが行うので、必ずしも「素」のA/D変換されたデータがrawファイルに記録されている訳ではありません。
スチルカメラでプリガンマ処理することはありえません。
素のADCの出力を記録しない合理性がありません。
書込番号:6739525
0点
DIGICなどの画像処理エンジンは、CMOSのベイヤー配列情報から「デモザイク(de-mosaic)処理」を行うことでRGB信号を得ます。
しかしこのデモザイクの段階で偽色抑制などの重要な画質要素が決まってしまいす。
そうなるとRAWそのものの意味が無くなってしまいます。
プリガンマもそのデモザイクの後処理(画像処理エンジン)になります。
それにプリガンマが先だとRAW現像時の露出補正がおかしくなってしまいます。
良いWebページを見つけました。
参考にして下さい。
http://www.weblio.jp/content/RAW%E7%94%BB%E5%83%8F
書込番号:6739651
0点
皆さんありがとうございます。盛り上がってるようでなによりです。
ようするに、Rawだと、サムネイルの埋め込み用意外には関係しない。
Rawしか撮らないのであれば、DIGCUだのDIGCVだのピクチャースタイルがなんだの、関係ない。
と解釈したのですが、、PCで閲覧の場合でもピクチャースタイル、ホワイトバランスetc, 反映されてますね。
なので、元データは同じだが、DIGCU と DIGCV ではPCディスプレイ上では埋め込みサムネイルが反映され
違って見える。
よろしいでしょうか?違うかなぁ??
書込番号:6739679
0点
> スチルカメラでプリガンマ処理することはありえません。
で、例えばrawファイルでその効果を確認出来る1D MarkIIIではハイライト優先モードはどうやって実装されているのでしょうか?
書込番号:6739709
0点
それは、純正のRAW展開ツールがデモザイク後のリニアデータにニー処理してからRGBデータにマッピングしているだけだと予想できます。
試しにサードパーティーのRAW現像ツールを使用すれば一段アンダーな画像がデフォルトでは再現されることでしょう。
書込番号:6739722
0点
>PCで閲覧の場合でもピクチャースタイル、ホワイトバランスetc, 反映されてますね。
RAWファイルの中にも、各種設定情報を入れることは自由ですから、多くの場合純正ソフトだと反映されます。
しかし各社共通規格ではないですから、サードパーティー製ソフトの場合は反映されることは少ないです。(ホワイトバランスは殆ど反映される)
書込番号:6739771
1点
> デモザイク後のリニアデータにニー処理してからRGBデータに
> マッピングしているだけだと予想できます。
確かにそれが第一に考えられる手法ですが、RGBチャンネルそれぞれにニー処理みたいな非線形な処理を行った場合、ターゲットが完璧なグレーでない場合、必然的にR:G:Bの割合が非線形に変化し、カラーバランスがずれてしまいます。
しかし、1D MarkIIIではハイライト優先モードでもカラーバランス崩れは起きません。ですので、素のリニアRGBチャンネルでは無く、そのRGBを基に生成した輝度情報(lumaチャンネル)をニー処理し、再度RGBに戻しているという結構手の込んだ処理をしている疑いがあります。
書込番号:6739906
0点
ニー処理は当然リニアデータにWBをとった後ですが?
ま、輝度信号と色差信号に分けて処理というのもあり得ますね。
で、RAWデータは素であるということで了解いただけましたでしょうか?
書込番号:6739929
1点
>そのRGBを基に生成した輝度情報(lumaチャンネル)をニー処理し、再度RGBに戻しているという結構手の込んだ処理をしている疑いがあります
だとしたらそのRAWデータは価値が無いので使いたくないですね(笑)
生のRAWデータを見てみればはっきりしますが…
書込番号:6739942
0点
>再度RGBに戻しているという
RGBという時点でRAWではありませんでした。
失礼しました。
書込番号:6739961
0点
センサーが全く同じでエンジンだけ違うってこともありえないと思うので、
この議論をしてもあんまり意味がないように思います。
物理的なセンサーの時点で違いがありますよね。
書込番号:6740005
0点
> で、RAWデータは素であるということで了解いただけましたでしょうか?
当方の考えについて誤解を招く表現をしてしまいましたので以下の様に訂正します:
「A/D変換で得た素のリニアRGBチャンネルデータでは無く、そのRGBを基に生成した輝度情報(lumaチャンネル)をニー処理し、再度rawファイルに書き込む(あたかもA/D変換で得たみたいな)RGBデータに戻しているという結構手の込んだ処理をしている疑いがあります」
つまり、私は「RGB」はベイヤーセンサーからA/D変換で得られた「生データ」、または「本来のrawデータ」と同義語として使っています。
書込番号:6740039
0点
>私は「RGB」はベイヤーセンサーからA/D変換で得られた「生データ」
だから、RAWはRGBじゃないですよ。
ベイヤー配列情報のままです。
私が先にリンクしたWeb読んでいただけましたでしょうか?
書込番号:6740078
0点
そんなことをすると減感現像の可能性を無くしてしまうのでRAWの価値がありません。
以上になります。
書込番号:6740085
0点
私的には理解しました。
Rawしか撮らず、しかもサードパーティーソフトを使う私には
DIGICVだの 無関係のような物。安心しました。
有り難うございました。
書込番号:6740128
0点
> だから、RAWはRGBじゃないですよ。
> ベイヤー配列情報のままです。
RGBカラーフィルターを使ったベイヤーセンサーの場合、A/D変換で得られたRAWデータを(それぞれのチャンネルのオフセット、ゲインを考慮した上で)「RGB」データとみなしても何ら差し支えないと思います。
> そんなことをすると減感現像の可能性を無くしてしまうのでRAWの価値がありません。
1D MarkIIIのハイライト優先モードはハイライトの白飛びを防ぐ、カメラ内で行われる一種の減感処理とみなしてもいいと思います。ですので、パソコン上でのさらなる減感現像は必ずしも考慮する必要は無いかもしれません。
書込番号:6740182
0点
Canonかも?さん
RAW撮りだけでも、DIGICのJPEG生成部分だけ使わないのであってCMOSから読み出したりCFに書き込む部分は使ってると思います。
14bit信号処理の実現、高感度撮影時のノイズ低減、画像の高速処理、記録メディアへのアクセス速度の高速化など、高画質とハイレスポンスを可能にしました。高精細・多階調な画像を、約10コマ/秒で高速連写する。優れたパフォーマンスが、ここから生まれます。(1D3のページからコピー)
と書かれてますので。
ですから、例えばもし5D後継機が1600万画素14bitになってDIGIC2のまま一つ搭載だったら1〜2コマ/秒以下になるかも。
書込番号:6740194
0点
そんな変な加工をしてあるとWBの調整とか出来なくなりますよ。
というか、サードパーティーのRAW現像ツールが対応している状況をみればあり得ません。
書込番号:6740301
0点
BODYの背面液晶に表示される画像はDIGICが作った物ですから、DIGICが無くなったらヒストグラムチェックも出来ませんよね。RAWから表示するソフトをBODYに載せれば良いでしょうけど、今の処理速度だと遅くてイライラするでしょう。
僕もRAWしか使わないので以前はDIGIC要らないと思ってたんですけど、色々勉強してるうちに結構色んな処理をしてくれて恩恵を受けてる事を知りました。
書込番号:6740322
0点
> そんな変な加工をしてあるとWBの調整とか出来なくなりますよ。
いや、画像エンジンがluma(輝度信号)ベースの手の込んだニー処理を行った場合、作成されるrawファイル内のRGBデータのカラーバランスは保たれているので、別にWB、サードパーティーのraw現像ソフト等に悪影響を与える訳では有りません。
もとい、それらへの影響を避ける為にハイライト優先モードでのトーンカーブ処理は単純にRGBチャンネルではなく、画像エンジン内でlumaとchroma信号を生成してから行わなければならない理由にもなりますね。
>>高感度撮影時のノイズ低減、
>jpegのみ ですよね?
1D MarkIIIではC.Fn II-2でノイズ低減を有効にした場合、RAW+JPEGではなくRAWモードのみで撮影を行っても連写可能枚数が激減するので、画像エンジンが何らかのノイズ処理をrawファイルに掛けている可能性は高いと思います。
書込番号:6740695
0点
>画像エンジンが何らかのノイズ処理をrawファイルに掛けている可能性は高いと思います。
そういえば、NIKON D3 のCMOSってCANONのCMOSと違いあるのですか?
D3が高感度ノイズが少ないのは、NIKONの画像処理コンセプトEXPEEDが働いてるからですよね?
ようするにjpegのみに。
RawはRaw で、何らかの処理が働くとRawではなくなるのでは?
書込番号:6740744
0点
>いや、画像エンジンがluma(輝度信号)ベースの手の込んだニー処理を行った場合、作成されるrawファイル内のRGBデータのカラーバランスは保たれているので、別にWB、サードパーティーのraw現像ソフト等に悪影響を与える訳では有りません。
だから、RAWは未だRGBデータになっていないんですよ。
直線性を狂わす余計な処理入るとサードパーティー製は対応できなくなります。
SILKYPIX3.0も1DVに対応していますから、今までと同じように無加工なファイルを出力していなければ遣いものになりません。http://www.isl.co.jp/SILKYPIX/japanese/product/ds3/camera.html
もうちょっと素直に学習することを覚えたら、他にも良いことあると思います。
書込番号:6740849
4点
ベイヤー配列のRAWデータの構造がわかっていればそんな加工は出来ないことが理解できると思う。
デモザイクしてリニアRGBにして輝度とカラーに分けてRGBに戻すと、各セル毎にRGBのデータを与えることになってデータが3倍程度になりますよ。
書込番号:6740859
3点
まあ、こちらとしては画像処理のハードの設計、ベイヤー配列センサーのRGBデータからCIE XYZ色空間相当データを計算したりするソフトも開発した事もあるので、一応RGBベイヤーフィルターからどんな信号を得られるか、また、ガンマカーブ、直進性、デモザイク処理等の概念は一般の人より理解している上でのコメントですが。
書込番号:6740955
0点
超素人が間に入ります(^_^;
私は5Dしか使った事がないのですが、
20D<5D
RAWデータで高感度ノイズが少ないですか?
もしそうだとしたら、これはCIMOS自体が違うのですか?
NIKON D3 や たぶん5D後続機も CIMOS自体が違うのでノイズに違いがあるのでしょうか?
ようするにRAWレベルで違いが出る。
書込番号:6740976
0点
ベイヤーは、この配列ですね。
GBGBGB
RGRGRG
GBGBGB
RGRGRG
上の文字数は24個ですね。
RAWファイルはそれぞれの文字に12bit与えれば済みます(12bitRAWの場合)
ですから、全データ数は24*12=288bit
デモザイクとはこれを演算、24個分のRGBデータにすることを言います。
すると、RGB全データ数は24*3*12=864bit
わざわざ計算するまでもないですが、3倍のデータ量になります。
RAWファイルの容量が可逆圧縮なのにTIFF等に比べ少ないのはこの理由によります。
書込番号:6740980
2点
5Dで長秒時露光のノイズ低減でテストをしてみました。
Cfでノイズ低減あり・なし各三枚撮影 BODYキャップをつけたまま5秒露光
ACRで露光量と明るさを最大にして現像
CS2でヒストグラムチェック
あり1 JPEG10.1MB
平均3.00
標準偏差3.42
中間値2
あり2 10.1MB
3.06
3.46
2
あり3 10.1MB
3.04
3.43
2
なし1 7.35MB
1.58
2.50
1
なし2 7.40MB
1.60
2.54
1
なし3 7.34MB
1.57
2.50
1
「あり」はファイルサイズオーバーで載せられなかったので「なし」だけUPしました。
http://g55.vox.com/library/post/%E9%95%B7%E7%A7%92%E6%99%82%E9%9C%B2%E5%85%89%E3%81%AE%E3%83%8E%E3%82%A4%E3%82%BA%E4%BD%8E%E6%B8%9B-%E3%81%AA%E3%81%97.html
DIGICでRAW自体にノイズ低減等の処理をしないという事は、「長秒時露光のノイズ低減」はA/D変換前辺りでの処理になりますか?
書込番号:6740992
0点
「長秒時露光のノイズ低減」は最初の露光読み出しA/D変換後バッファし、ダークフレーム読み出しし、それをA/D変換して最初のデータからダークフレーム減算すると考えればよいでしょう。
書込番号:6741009
1点
>「長秒時露光のノイズ低減」
これ「だけ」はアナログかデジタルか(おそらく両方の連携でしょう)、またはDIGICが関係するかわかりませんが、RAWに対して処理をしていると思います。
書込番号:6741010
1点
kuma_san_A1さん
ソニータムロンコニカミノルタさん
ありがとうございました。m(_ _)m
書込番号:6741019
0点
Φοολさん
>まあ、こちらとしては画像処理のハードの設計、ベイヤー配列センサーのRGBデータからCIE XYZ色空間相当データを計算したりするソフトも開発した事もあるので、
ということなら丁度いいです。
博学な上司の方に確認してみたら良いと思います。
書込番号:6741020
0点
>>「長秒時露光のノイズ低減」
> ー 中略 ー RAWに対して処理をしていると思います。
RAWでもノイズ軽減処理はされるのかぁ、ブツブツ、、
NIKON D3 とか やっぱりRAWレベルでノイズ少ないのかぁ、ブツブツ、、
5D後続機もRAWレベルでノイズ少ないのだろうなぁ ブツブツ、、、
書込番号:6741048
0点
Φοολさん、そのような素養があるのでしたら自身のロジックの破綻にも気づけることでしょう。
わたしは、画像処理とはなんの関係もないミュージシャンですが。
書込番号:6741050
1点
Canonかも?さん
>20D<5D
>RAWデータで高感度ノイズが少ないですか?
>もしそうだとしたら、これはCIMOS自体が違うのですか?
>NIKON D3 や たぶん5D後続機も CIMOS自体が違うのでノイズに違いがあるのでしょうか?
>ようするにRAWレベルで違いが出る。
kuma_san_A1さんの[6739221]のレスでリンクして戴いてるスレでオンチップノイズリダクションの事も説明されてますし、KissDNよりKissDXの方が画素密度が高くなってノイズが増えたと随所で言われてますよ。
あと、CIMOS→CMOSです。
書込番号:6741052
0点
Canonかも?さん
敢えてここでの説明は避けます。(他の混乱になりますので)
もうちょっと知れば面白くなりますよ。
書込番号:6741054
0点
> デモザイクとはこれを演算、24個分のRGBデータにすることを言います。
> すると、RGB全データ数は24*3*12=864bit
デモザイクは当トピックと全く関係ないですね。
私はカラーバランスを崩さない非線形なトーンカーブ調整はA/D変換で得られたRGB空間からluma+chroma空間に変換し、lumaチャンネルを弄り、そこからまたRGB(要するにraw)データを生成するのは充分可能だと言っているのです。
これは、たとえばフーリエ変換で信号を時間空間から周波数空間に変換し、何らかの処理、例えばフィルタリングをを行い、逆フーリエ変換をするのと同様の手法です。
> DIGICでRAW自体にノイズ低減等の処理をしないという事は、「長秒時露光の
> ノイズ低減」はA/D変換前辺りでの処理になりますか?
xj12さん、興味深い測定結果、ありがとうございます。
「ノイズ低減あり」で標準偏差が「なし」より大きいのがちょっと以外ですね (^^;
「あり」と「なし」のrawファイルで統計的に有意に見える測定差が有るのは、やはりカメラの内部でセンサーからの"raw"信号に何らかの処理が掛けられている可能性を強く示唆する物だと思います。
個人的にはその処理がA/D変換前辺りで行われているとは考えにくいです。センサーからどんな帯域の信号が来るか完璧に予想出来る訳ではないので、A/D前の入力バッファーアンプの増幅率、帯域等をちょうどノイズが混入した時に小さくしてノイズを押さえ込むのは因果律を破る事になりますからね。
ですので、此処はやはり画像エンジンが怪しいと思います。
書込番号:6741091
0点
kuma_san_A1さん曰く:
> Φοολさん、そのような素養があるのでしたら自身のロジックの破綻にも気づけることでしょう。
> わたしは、画像処理とはなんの関係もないミュージシャンですが。
う〜ん、やはり先ずこの論文をお読みになるのが宜しいかと思います:
http://www.apa.org/journals/features/psp7761121.pdf
(^^;
書込番号:6741104
0点
kuma_san_A1さん曰く:
> 「長秒時露光のノイズ低減」は最初の露光読み出しA/D変換後バッファし、
> ダークフレーム読み出しし、それをA/D変換して最初のデータから
> ダークフレーム減算すると考えればよいでしょう。
しかし、この様な演算を行うのはkuma_san_A1さんが以前仰っていた「rawモードでは画像エンジンはセンサーからのデータを加工せずに出力する」と云う説と少々矛盾しているのではないでしょうか? (^^;
書込番号:6741116
0点
xj12さん
>kuma_san_A1さんの[6739221]のレスでリンクして戴いてるスレ、、
スルーしてました (^_^;
>あと、CIMOS→CMOSです。
スペイン語かぶりなんもので毎回この間違いを指摘される (^_^;
Φοολさん
こんな論文読まれてるのですか!
kuma_san_A1さん がんばって!
もう私はお邪魔しませんので、続けてください。
あれっ、私のスレ、、(^_^;
書込番号:6741124
0点
紹介されている論文は本件には関係ないみたいです。
>しかし、この様な演算を行うのはkuma_san_A1さんが以前仰っていた「rawモードでは画像エンジンはセンサーからのデータを加工せずに出力する」と云う説と少々矛盾しているのではないでしょうか? (^^;
長秒時のダークフレーム減算は撮影時の各セルのAD後の値からダークフレーム記録時の各セルのAD後の値を減算するものです。
仕組みからいってこの加工はされます。
この長秒露光時のダークフレーム減算は多くのデジタルカメラで採用されていますよね。
書込番号:6741166
0点
> 紹介されている論文は本件には関係ないみたいです。
失礼しました。
この論文の要点を理解できなければ、確かに本件には関係あるかないかは判断は不可能でしたね (^^)
書込番号:6741199
0点
Canonかも?さん、皆さん、こんにちは。
私には、キヤノンのDigicIIIの説明文で「出力アンプ」がDigicIIIの中に包摂されるものかどうかすら明確にはわかりませんが(キヤノンの説明ではこれも含めてDigicIIIとしているようにも読める)、DigicIIIというのはかなり多くの仕事をしていると思います。
まず、RAWのみ撮りで、「高感度ノイズ処理をする」をONにすると連写数がOFFの時の半分以下に減ります。30コマ(実際はメディアの性能が良ければ40コマくらい)が14コマ(実際は同じく19コマ)に激減します。
これはどういうことでしょうか?(^_^;)
RAWを含めての撮像素子から受け取ったアナログ・データの後処理は、高感度ノイズ除去も含めて、ほとんどDigicIIIが行っているように感じられます。A/D変換の演算もDigicの仕事では?
キヤノン公式サイトによれば、DigicIIIデュアルについて、「14bit信号処理の実現、高感度撮影時のノイズ低減、画像の高速処理、記録メディアへのアクセス速度の高速化など、高画質とハイレスポンスを可能にしました。高精細・多階調な画像を、約10コマ/秒で高速連写する。優れたパフォーマンスが、ここから生まれます。」ということですね。(DigicIIIの説明のところで、他に固定ノイズ、ランダムノイズなどの説明もあります。)
まあ、私は、製造技術的なことはわかりませんし、あまり必要も感じませんが、RAW撮りについても、キヤノンは、このスペックはDigicIIIのデュアル搭載で実現できたのだ、という趣旨のことを公式サイトで言っていますよね。
キヤノンに聞いた方が確実でしょうね。
書込番号:6741816
0点
>A/D変換の演算もDigicの仕事では?
DIGICはA/D変換後のデジタル処理のみです。
書込番号:6741841
0点
あと、大事なことにデモザイクはRAW現像ソフト独自のアルゴリズムがあって、ベンダー毎の売りにもなっています。
いわば将来にはより高度なデモザイクがされる可能性が残されているわけで、RAW段階でRGBにされては意味がないというのはこのことも含みます。
ですからDIGICは内部JPEGの為にあると言って良いのです。
書込番号:6741858
1点
長秒時露光のノイズ低減 オンチップ+DIGIC
諧調優先(1D3) DIGIC
でRAWを処理してるという事でした。
高感度ノイズ処理をする(1D3) DIGICでJPEGのみ処理+EXIFに書き込み DPP等でEXIF情報を元にRAWからノイズ低減(カメラ内部ではRAWに処理は施されない)
書込番号:6742569
1点
大間抜けだった部分があったのであやまっておきます。
>デモザイク後のリニアデータにニー処理してからRGBデータにマッピングしているだけだと予想できます。
これだとリニアなRGBそれぞれにニー処理となってしまっていますね。
通常のRAW現像の流れの中の非線形であるガンマ変換やコントラスト(S字強調)の直前に行われるということ(当然、Φοολさんの書いている輝度成分に非線形処理が入ります)ですね。
RGBリニアからWBのためのゲイン調整し、広いレンジの色座標(輝度と色差で指定)に変換し、ニー処理後ガンマとコントラスト調整して、指定の色空間のRGBデータへとマッピングですね。
Φοολさんの書かれているように色座表内で輝度に非線形かけた後それを反映したRGBリニア(RAWの3倍のデータ量)には戻せますね。
素朴な疑問として
・デモザイク無しだとセル位置にはRかGかBの情報しかないが、これで色座標に変換できるのか
ということです。
また、そういう加工をすると増減感の調整の自由度を奪う結果にもなり合理性に疑問があります。
これをふまえると、[6739929]のわたしの発言はそういう意味でお間抜けな部分がありました。
[6740301]の「WBが…」も短絡的ですね。
…普通に素のRAWで困らないのに加工する合理性が疑問点で、そういうデータなら欲しくない。
書込番号:6743515
0点
デモザイクしないで、その中のRGBでWB取るんですか?
なんか、ますます変…
>広いレンジの色座標(輝度と色差で指定)に変換し、
WB取った後なら、RGBのまま同じカーブのニーを掛けた方が合理的のような。
…というか、既にxj12さんがキヤノンへ訊いてくれたようで、答えは出てるようです。
書込番号:6743699
0点
事の発端は[6739709] Φοολさんの、
>例えばrawファイルでその効果を確認出来る1D MarkIIIではハイライト優先モードはどうやって実装されているのでしょうか?
で、おそらく純正のDPPか何かで違いが出るのでしょう。
1DV取扱説明書http://cweb.canon.jp/manual/eosd/pdf/e1dm3cug.pdf
■162項
高輝度(ハイライト)側の階調表現性が向上します。適正露出(18%グレー)から高輝度限界までの範囲が拡張され、グレーからハイライトの階調がより滑らかになります。
設定時は、通常撮影時より、低輝度部のノイズが若干増えることがあります。
これから予想するに、実際はRAWデータEXIF中の露出基準点(ヘッドルームが変わる)を変えているだけに思います。
じゃないと、例え純正ソフトでもWBを変えた途端に使いものにならなくなってしまいますね。
書込番号:6743838
0点
DPPともう一つ純正のソフトで確認できると言われてました。
(すみません純正ソフトを使わないので忘れました。RITかも?)
RAW+JPEGで諧調優先をONにして撮るとJPEGの方が綺麗なのがわかる。
諧調優先をONで撮影したRAWをDPPで開くと、その効果のONとOFFのどちらも選択可能だそうです。
サードパーティーのソフトでは効果無しということですね。
書込番号:6743923
1点
>実際はRAWデータEXIF中の露出基準点(ヘッドルームが変わる)を変えているだけに思います。
より、やはりカメラが設定した階調優先モードがEXIFに入っていて、純正DPPがそれを読んで同じカーブに処理している…
というのが一番自然で無理がありませんね。
キヤノンへ訊くより市川ラボラトリーあたりに訊いた方が正確で早そうですが。
まあ使えないデータは興味ないし、処理無しとしても1DVは持っていないので(爆)
書込番号:6743962
0点
xj12さん
>その効果のONとOFFのどちらも選択可能だそうです。
>サードパーティーのソフトでは効果無しということですね。
これで謎が解けました。
やはりRAWデータ内容そのものは変わらないということで解決です。
(設定データが入るのみ)
ありがとうございました。
書込番号:6743994
0点
RAWというのは何も処理をしてないデータ・・・と何度も言われてました。
DIGICがRAWにノイズ低減をかけるのは長秒露光時のノイズ低減だけですか?という質問にもソニータムロンコニカミノルタさんが言われてたのとバッチリ合致の回答でした。さすがです・・・m(_ _)m
最初の
>DIGIC U とか DIGIC V って Raw 撮りだと無関係ですよね?
の質問の回答は、DIGICのJPEG生成処理だけはRaw撮りに無関係で、サムネイル作成・読み出し書き込み(連写枚数・連続撮影枚数に関係する)、カスタムファンクションの幾つかの処理などのJPEG生成と別の処理はRAW撮りだけの人にも無関係じゃないので、DIGIC進化の恩恵は受けられるということですよね。
書込番号:6744162
2点
おつかれさまでした。
こんなに盛り上がるとは思いませんでした。ストーリーがあり面白かったです。
THE END.
といきたい所なのですが、、
>DIGICがRAWにノイズ低減をかけるのは長秒露光時のノイズ低減だけですか?
>という質問にもソニータムロンコニカミノルタさんが言われてたのとバッチリ合致の回答でした。
ソニータムロンコニカミノルタさん のレスでは、
>これ「だけ」はアナログかデジタルか(おそらく両方の連携でしょう)、
>またはDIGICが関係するかわかりませんが、RAWに対して処理をしていると思います。
”DIGICが関係するかわかりません" と仰ってます。
RAWデータに処理を施すのは、”長秒露光時のノイズ低減だけ” なのは分かりましたが、、、
書込番号:6746096
0点
40DのAFユニットに尽いて知りたい事があったので今日もサポートに問い合わせて、ついでに昨日と同じ質問をしましたら、違う回答でした・・・。
■一回目 おじさん? 即回答してくれるけど、少し曖昧。
ハイライト側諧調優先・高感度時ノイズ低減・長秒時ノイズ低減共にRAWにも処理をする。
■二回目 おねーさん 一つ一つ確認しますといって待たされる。
ハイライト側諧調優先・高感度時ノイズ低減・長秒時ノイズ低減共にCMOSとDIGIC双方でRAWを処理する。サードパーティーのソフトでRAWを開いてもその効果はかかっている。
可逆圧縮・A/D変換はCMOSとDIGICで行う。
DIGICはコンデジ・デジ一眼レフ共に同じ物だが、デジ一眼レフ用の物は内部処理が変更できる作りになってる。
以前は、わからない事があったらとりあえず電話して聞いてたのですが、時間ばかりかかって納得できる回答はなかなか得られなかったので自分で調べるようにしてたのですが、今回は調べてもわからなかったのでメールで問い合わせたら電話がかかってきました。
相変わらず人によって回答が違ってわけわかんないです。
質問してるこちらが無知なのが悪いのでしょうけど・・・。
お役に立てず済みません・・。
Canonかも?さん
.CR2というフォーマットのRAWファイルを作ってるのはDIGICで間違いないしCMOSからのデータは必ずDIGICを通るので、RAW撮りしかしない人でもDIGICは無関係じゃないみたいですよ。
書込番号:6746150
0点
>高感度時ノイズ低減・長秒時ノイズ低減共にCMOSとDIGIC双方でRAWを処理する。
これは良いでしょう。
>ハイライト側諧調優先
これは元々の14bitデータに手を加えてニーなど掛れば、RAWの価値が無くなります。
その理由
1.14bit精度が得られなくなる。
2.直線性が無くなれば、サードパーティー製ソフトの大半の機能が使えなくなる。
ということです。
昨日私が言った露出基準値の変更のみを処理しているならわかりますが。
経験上、メーカーに聞くと相手が大きな会社だけに、込み入ったことは正確に伝わらないことが多いです。
万が一本当なら、そのRAWデータは価値無いですね。
書込番号:6746417
0点
>経験上、メーカーに聞くと相手が大きな会社だけに、込み入ったことは正確に伝わらないことが多いです。
そうですよね。出すぎた真似をしてすみませんでした。m(_ _)m
書込番号:6747430
0点
xj12さん
>そうですよね。出すぎた真似をしてすみませんでした。m(_ _)m
いえいえ、とんでもないです。
わたし自身メーカーの人間だからわかるのですが…
この辺になると、担当のお姉さんやおじさん程度では、知らないと思いますね。
多分まわりの比較的知識のある人に聞いたのだと思いますが、カタログや取説に載っていないようなことだと設計担当まで確認しないと確かなことはわからないと思います。
(社外秘に関わることに近い、また回路設計部分にあたるので)
サポートで設計にまで回すことは極めて希です。
そのため、答える人によって答えが違うとしても不思議ではないです。
本来、そういう対応ではいけないのですが、99%以上はユーザー自身で調べればわかることを答えているだけだと思いますので、無理ないかも知れません。
書込番号:6747491
0点
AE,AFは、DEGICで演算していたと思っていたのですが僕の勘違いでしょうか。何もかもマニュアルで撮る人以外は、RAWでもDEGICの恩恵を受けているのではないでしょうか。
書込番号:6749945
0点
>AE,AFは、DEGICで演算
DIGICUの説明に
「信号処理(現像処理)」はもちろん、「JPEG圧縮・伸張」「AE、AF、AWBの制御」など、デジタルカメラに必要なほとんどの機能を1チップに集積したことで、従来より複雑なアルゴリズムを短時間で数多く実行できるようになりました。
と、書かれてますね。
他に
映像エンジン「DIGIC」にカメラ制御ICと動画制御ICの機能を統合し、省スペースとパフォーマンスの大幅な向上を実現したのが「DIGIC II」です。
とも書かれてます。
何でもマニュアルの人でもDIGICの高性能化は有利に働きそうですね。
書込番号:6749972
0点
上のコピーはコンデジのページの物です。
デジタル一眼レフでもAE・AF・AWBの制御をDIGICで行ってるかはわかりません。
ユニットが別で離れた場所にあるので別のICを使って演算し、最終的にはDIGICを使ってるような感じもしますが・・・。
書込番号:6749985
0点
α700のスレも読ませて戴いて、改めて1DMarkVの説明書をDLして読んだり高輝度側・諧調優先について調べてたら、にけさんのブログに答えが書いてありました。
【にけの独り言】ブログ −にけログ−: EOS-1D Mark III の高輝度側・階調優先モード
http://nike.cocolog-nifty.com/blog/2007/08/eos1d_mark_iii_fa6a.html
DPPを使わない僕には効果なさそうですね。。。
kuma_san ソニータムロンコニカミノルタさんが言われてる通りですね。
次期5Dがまた今と同じようにDPPだとダイナミックレンジを狭められるって事にならなかったらDPPからTIFFにしてCS3でレタッチという使い方もしたいんですけど。。。
書込番号:6752354
0点
5DってDPPでダイナミックレンジが狭まるんですか?
新しいバージョンのDPPでもそうなんですか?
書込番号:6753360
0点
僕自身が検証したわけじゃないですから断定は出来ませんけど、5D発売当初から言われてた事ですよ。
書込番号:6754733
0点
>DPPでダイナミックレンジが狭まるんですか?
DPPは派手な発色で内蔵JPEGとの違和感はありませんが、その分色飛びしやすいですね。
書込番号:6756012
0点
[6752354]xj12さん曰く:
> 高輝度側・諧調優先について調べてたら、にけさんのブログに答えが書いてありました。
私は輝度優先モードはハイライトの「白飛び」を押さえる機能だと認識しています。
白飛びが起きる理由は二つあります。
一つはハイライトがオーバーになる露出で撮影をしてしまった場合ですね。この場合、露出をアンダー側に振る事で簡単に問題を解決できるケースもあります。
二つ目は撮影対象のコントラスト範囲があまりにも広く、暗部のディテールを持ち上げる露出を設定した場合、ハイライト部の輝度がセンサーの飽和レベルを超えてしまう場合です。
1D MarkIIIは14ビットのA/Dコンバーターを搭載しているので、単純にセンサーが14EVのダイナミックレンジを有するとみなして話を進めます。
1D MarkIIIの取扱説明書では輝度優先モードではハイライト部のレンジが1EV程拡張されると記されています。
「輝度優先モード」が単純に絞り一段分露出をアンダーにする機能でしたら、露出補正機能で「マイナス1EV」を設定するのと同じ事になりますね。このカメラを使用するユーザー層がその様な既存の機能と重複する物を必要とするかは非常に疑わしいです。
ですので、「輝度優先モード」は実際には「センサーから得た14EV相当のリニア・データの暗部にニー(knee)を付け、非線形な13EVに圧縮し、1EV相当分暗部を持ち上げつつリニア部分のハイライトが飛ぶのを防ぐ」処理をしている可能性は十分にあると思います。
にけさんのブログではダイナミックレンジ7EV位のLCDモニターを撮影し、「輝度優先モード」は単に一絞りアンダーの露出に相当すると結論づけています。しかし、これでは上限が飽和レベルの、リニアであると思われる7EVのレンジを検証しただけで、結局センサーの約14EVのトーンカーブの上半分しか検証していません。
暗部に非線形なニー処理が行われているかは、ハイライト側にくっついた7EV程度の狭いダイナミックレンジのテストで特定できるとは考えにくいです。
書込番号:6757113
0点
>暗部に非線形なニー処理が行われているかは、ハイライト側にくっついた7EV程度の狭いダイナミックレンジのテストで特定できるとは考えにくいです。
明部についてはこのやり方でも十分信用に足るものと思います。
明部に早めにニーを掛けることが検証されたわけですから、自動的に暗部の立ち上がりがその分急になることはわかります。
誰も暗部を非線形にしているなど言っていませんし、そもそも検証できる環境が無いみたいですね。
>にけさんのブログ
まあ確かにテスト環境としてはかなり簡素と思います。
この手のテストを本格的に行うには、カーブの公表されているグレースケールチャートを使うのが簡単で、かつ正確です。
私はテレビジョン用の村上色彩製のを使っています。
コダックのもありますが、これは印刷で精度の方は疑問ですが暗部の段数が多いのが特徴です。
私は輝度優先モードのある40Dや1DVは持っていませんので確認のしようがありませんが、持っている方がグレースケールチャートを使った客観的で正確な検証を期待するしかありません。
そもそも、折角14bitあるのに非直線処理をRAW生成の前段階で勝手に行われては、邪魔でしかありませんね。
現像時の後処理こそRAWの意味があるのであり、本末転倒です。
しかしにけさんのブログで明部についてRAW自体に変化がないことは検証されましたから、暗部についてもいじっていないと考えるのが自然と思います。
このブログは、環境が簡素なもののISO感度と回路のゲインとA/Dについての認識と相関関係がしっかりしており、にけさんはデジタルカメラ回路のプロか、かなり精通されている方と受け止りました。
書込番号:6757263
1点
> 明部に早めにニーを掛けることが検証されたわけですから、
> 自動的に暗部の立ち上がりがその分急になることはわかります。
トーンカーブ関連の用語について何か誤解されている様ですね。
ニーは英語の"knee"、即ち「膝」と云う意味で、低い位置に有る物を指します。ですから、暗部にニーはあっても、明部には「ニー」なんてものはありえません。
あえて明部に例えばS字型の非線形のカーブが掛けられている点を指したいなら、「ショルダー」、即ち「肩」と言うべきです。
キヤノンは「輝度優先モード」では暗部のノイズが増える可能性を指摘しているので、私は当初からハイライト部分の露出値を変えずに、如何に暗部を持ち上げるかに注目しているのです。暗部ではスチール、ムービー、ビデオ等で実証され、視覚的に受けいられやすい立ち上がりが緩やかな非線形のニー処理が掛けられている可能性は充分有ると思います。
また、暗部のニー処理はトーンカーブをホッケースティック型(Jカーブ型とも言う)にしますので、明部は通常リニアなままです。ですので、にけさんが行ったみたいな上部7EVのテストだけではrawファイルのトーンカーブ全体、特に暗部の形については不明で残る部分が大きい訳です。
> そもそも、折角14bitあるのに非直線処理をRAW生成の前段階で勝手に
> 行われては、邪魔でしかありませんね。
> 現像時の後処理こそRAWの意味があるのであり、本末転倒です。
どうも私とソニータムロンコニカミノルタさんの間ではこの1D MarkIIIの「輝度優先モード」がどのような状況下で使われるべきかについて、大きな見解の相違があるみたいです。私は単に1EV露出をマイナス補正すれば済む様な狭いダイナミックレンジのシーンしか基にしない考察には興味がありません。
大抵のユーザーはRAWをJPEGに現像しますね。8bitでエンコードされているガンマ値2.2のsRGBとAdobeRGBのJPEGでは11.686EVのダイナミックレンジしか再現出来ません。
JPEGを想定した後処理を簡単にする為にカメラがRAWファイルの14EVに達しうるダイナミックレンジを1EV程度圧縮するカスタム・ファンクションがあっても何ら不思議ではないと思います。
撮影時に意識された目的が「ハイライトを飛ばさない」再現の場合、それを実現する(飽くまでもオプショナルな)処理がカメラ内で行われようが、パソコン上で行われようが結果の違いは軽微だと思われます。しかし、その処理をカメラ内で行った方が時間と手間を節約できるのは明らかだと思います。
書込番号:6757557
0点
> にけさんはデジタルカメラ回路のプロか、かなり精通されている方と受け止りました。
トーンカーブの一部しか測定せず「輝度優先モード」は機能的にはマイナス一絞りの補正と、あたかもキヤノンがこの上級者向けのカメラに既存の露出補正機能と完全に重複する物を搭載したと結論づけるにけさんの見識には、私は結構疑問を感じます。
書込番号:6757581
0点
>露出補正機能と完全に重複する物
重複しませんよ。
トーンカーブ処理した結果が立派にJPEG出力に反映しますから、機能にウソはありません。
むしろ、実験して検証しようとした姿勢は、思い込みだけで結論付けようとするよりは遙かに立派と思います。
書込番号:6757601
0点
>ニーは英語の"knee"、即ち「膝」と云う意味で、低い位置に有る物を指します。ですから、暗部にニーはあっても、明部には「ニー」なんてものはありえません。
あのですね、暗部にニーを使うというのははじめて聞きましたが、歴史的にはプロ用テレビカメラで明部に使い出したのが始めです。
ソニー、池上などのカタログを見て見ればわかります。
>私は単に1EV露出をマイナス補正すれば済む様な狭いダイナミックレンジのシーンしか基にしない考察には興味がありません。
撮像素子が飽和しないように、デジタルサンプリングがフルビットにならないように最明部をレンジに入れるにはマイナス補正しなければなりませんね。
先ずはデジタルサンプリングの基礎から学ぶべきでしょう。
それと、RAW現像の意味もおさらいしてください。
書込番号:6757635
1点
KNEE(ニー)
http://www.ikegami.co.jp/products/broadcast/camera/pdf/hdk_790ex3-79ex3.pdf
2項右下
「スーパーKNEE
ハイライト部分の色相を変えずにKNEE処理を行うため、色とびを抑え、かつ自然なハイライト表現が可能となりました」
書込番号:6757648
0点
>その処理をカメラ内で行った方が時間と手間を節約できるのは明らかだと思います。
ですから、そういう非線形処理をカメラ内でやってしまった場合、RAW現像ソフト側のKNEEやホワイトバランスの機能が破綻してしまいますよ、という意味です。
特にサードパーティー製で。
図に書いて、処理過程を図示して行ってみたらどうですか?
SILKYPIX3.0などは1DV対応を謳っていますが、輝度優先モードに対しての注意書きは見受けられませんから、やはりRAWファイルに非線形処理は行われていないと取れます。
書込番号:6757688
0点
ソニータムロンコニカミノルタさんと私の違いは(にけさんのブログの例同様)どの程度のレベルを充分なスタンダード、基準として認めるところでしょうか。
私はカタカナ言葉は本来の言語空間(この場合は英語圏での映像関連の用語)の語義で使用するスタンスなので、語学力の乏しい日本人がカタカナ言葉を誤って解釈をした例を提示されてもその解釈の正当性を認めません。
kneeがハイライト部分でも使える言葉だと証明したいなら、Engrishで只でさえ有名な日本のではなく、native speakerの執筆した欧米のメーカーのマニュアルを提示すべきかと。
書込番号:6757710
0点
> RAW現像ソフト側のKNEEやホワイトバランスの機能が破綻してしまいますよ
何度も言う様ですが、基本的にはluma空間でトーンカーブを弄ったらrawのホワイトバランスは崩れません。
イケガミさんのパンフでも明記してあるでしょう?「色相を変えずにKNEE処理を行う為、色とびをおさえるのが可能になりました」と。技術的にはそれが可能と証明されている事ですね。
イケガミさんに出来る事が、プリンター等との連携を鑑み、カラーマネージメントの研究開発に結構注力しているキヤノンに出来ないとでも?
> 図に書いて、処理過程を図示して行ってみたらどうですか?
何度も書く様ですが:
rawセンサーデータ(要するにRGB)->
luma空間へ変換->
カーブ操作->
RGB空間へ変換->
疑似センサーデータ(要するにRGB)
> SILKYPIX3.0などは1DV対応を謳っていますが、輝度優先モードに
> 対しての注意書きは見受けられませんから、やはりRAWファイルに
> 非線形処理は行われていないと取れます。
ホワイトバランスを崩さない非線形処理がrawに施されている場合、簡単に現像ソフトへの影響は軽微、若しくは皆無に出来ますが?
raw現像ソフトにとって、照明を操作してコントラスト比を下げたデータと、演算によってホワイトバランスを崩さずに元のコントラスト比を下げたファイルが何ら違いが有るとでも仰りたいのですか?
書込番号:6757764
0点
>基本的にはluma空間でトーンカーブを弄ったらrawのホワイトバランスは崩れません。
>RGB空間へ変換->
これで論理が破綻していると気付きませんか。
色成分の無いモノクロ分だけで弄っている間は色が付かないのは当然ですが、RAWソフトに渡すのはRGBなのです。
ソフト側から見たら、R:G:B=1:1:1の時に始めて同じカーブになるものを、そのバランスを崩したらバラバラになってしまいますね。
これを順番に図示してみて下さい。
で、Φοολさんの主張は残念ながらいまだ思い込みの域を出ていません。
用語の勘違いも思い込みのままだったようです。
もし1DVまたは40Dをお持ちなら、客観的な観測を持って証明されれば良いですけどね。
それまでは説得力ありません。
気が向いたらでOKです。
では。
書込番号:6757860
0点
>R:G:B=1:1:1の時に始めて同じカーブになるものを、そのバランスを崩したらバラバラになってしまいますね。
RAW現像ソフトのホワイトバランス調整機能を使った場合です。
書込番号:6757934
0点
> これで論理が破綻していると気付きませんか。
> 用語の勘違いも思い込みのままだったようです。
I'll answer in English this time, even though the wor∂Break feature on kakaku.com sucks, to indicate how ridiculous I find /your/ assertion that your usage of "knee" is somehow correct.
You don't seem to be able to realize that you just haven't got a sufficient grounding in the English language to make such an assertion, and that exhibiting Engrish-prone material coming from a Japanese company hasn't got any evidentiary power as to an English term's proper semantics.
It also seems to have escaped your notice that I've been talking explicitly about a luma+chroma space (go re-read my posts), even though I'm focusing on the monochromatic luma channel, because that's where the tonal mapping manipulation takes place.
The luma and chroma channels ー conceptually equivalent to CIE XYZ coordinates, where Y is the luma and X and Z are the chromas ー can be obtained e.g. by multiplying a normalized (R,G,B) triplet with a well-chosen 3x3 coordinate transformation matrix M.
I'm fairly sure Canon have more sophisticated methods up their sleeve, e.g. non-linear methods designed to minimze the residuals when converting between spaces that have a large span.
Anyway, if we content ourselves with a simple linear conversion matrix, a consequence of the Luther-Ives metamerism condition is that, if the sensor's R, G and B spectral sensitivities are chosen well enough, there exists a 3x3 matrix M such that:
(R,G,B) x M = (X,Y,Z)
i.e. a matrix M converting from the relevant RGB space to CIE XYZ.
Interpolating the Bayer pattern's missing R, G and B components so that each triplet is complete can be done e.g. using Independent Component Analysis / Singular Value Decomposition, or better yet, by using the algorithms in the relevant subsystem in the picture engine that are alrea∂Y used to synthesize the Y, Cb and Cr components of the picture's JPEG rendition.
Using a reference illumination source that outputs a calibrated lightbeam of known CIE xyY coordinates, a sensor manufacturer like Canon can easily determine the elements {M11..M33} of the 3x3 conversion matrix M by sampling the sensor's ∂R, ∂G and ∂B responses to the light source's varying x, y and Y stimuli.
We have:
M11 = ∂X/∂R ; M12 = ∂Y/∂R ; M13 = ∂Z/∂R
M21 = ∂X/∂G ; M22 = ∂Y/∂G ; M23 = ∂Z/∂G
M31 = ∂X/∂B ; M32 = ∂Y/∂B ; M33 = ∂Z/∂B
and X=xY/y, Z=(1-x-y)Y/y
The inverse matrix M^-1, which converts from XYZ to RGB space, can then be computed. That step SELF-EVIDENTLY uses the X and Z chroma values in addition to the Y luma value.
(X,Y,Z) x M^-1 = (R,G,B)
Denormalizing the R, G and B channels and eliminating the normally absent R, G and B components will then easily yield values that are in a range compatible with all raw processing software ー third-party or otherwise ー expecting Bayer sensor data.
Doesn't seem too difficult to understand, one would think.
書込番号:6758160
0点
要するにソニータムロンコニカミノルタさん程度のレベルで、ある特定の信号処理手法(例えばニーを掛けるみたいな非線形な処理)がホワイトバランスを崩すか、またはある英語由来のカタカナ語の用法が適切であるかを論じるのはあまり意味の無いと言う事です。
書込番号:6758192
0点
Φοολさん
英語で誤魔化さないで下さい。
ここは日本語のサイトですから規約違反ではないでしょうか。
内容は理解しました。
色空間内のマトリクスやマッピングの計算などは私も趣味レベルでやっています。
しかしここでは関係ありません。
そもそも、現像ソフト内で色空間をRGB以外で演算するという前提から間違えです。
色空間は入力の撮像素子の色域から最終的にsRGBまたはAdobeRGBにマッピングするだけで十分であり、現にSILKYPIX3.0がそうですね。
DPP等は知りませんが、同じでしょう。
Φοολさん自身が
[6740039]
>「A/D変換で得た素のリニアRGBチャンネルデータでは無く、そのRGBを基に生成した輝度情報(lumaチャンネル)をニー処理し、再度rawファイルに書き込む(あたかもA/D変換で得たみたいな)RGBデータに戻しているという結構手の込んだ処理をしている疑いがあります」
と仰っているとおり単に「推測」の域であり、そもそも思い込みです。
しかもこのような処理は誰でも一度は思いつきますが、上記のように非合理でありRAW現像の存在意義を無くす意味のないことです。
キヤノンへ問い合わせして回答を得たわけでもないですね。
せめてそのくらいは(RGB処理かlumaチャンネルによる処理か)問い合わせてみたらいかがでしょうか。
書込番号:6758217
1点
> そもそも、現像ソフト内で色空間をRGB以外で演算するという前提から間違えです。
> 色空間は入力の撮像素子の色域から最終的にsRGBまたはAdobeRGBにマッピング
> するだけで十分であり、現にSILKYPIX3.0がそうですね。
う〜ん、上記の物はソニータムロンコニカミノルタさんが「ニー」の語義について自分は論じられると思い込んでいるのと同じ類いのたいして根拠のない「推測・思い込み」では無いのは?
現像ソフトに搭載されているピクチャースタイルの類いの、ある特定の色相(例えば肌色、空の青等)の彩度とコントラストを弄る処理は、RGB空間よりはluma+chroma空間で行った方が容易で、且つ精度が高いケースが殆どです。
ですから、当該製品の開発者でない限り、例えば「rawが何ら処理を掛けられている筈は無い」等とあるカメラ、またはあるソフトでどの様な処理が行われているかを断定するのは避けた方が宜しいかと。
それから、キヤノン等のメーカーに製品に搭載されたファームウェア、ASIC等がどの様な処理、アルゴリズムを使用しているかを問い合わせるのは殆どの場合、時間の無駄です。
書込番号:6758283
0点
> 上記のように非合理でありRAW現像の存在意義を無くす意味のないことです。
ある特定の状況下(ハイコントラストの撮影対象、且つハイライトを飛ばしたくない)で、カメラ内で1EV程度のダイナミックレンジの圧縮を行へば、大抵の人の場合、後処理に必要な手間と時間が節約される可能性が有ると理解するのは貴方には不可能みたいですね。
書込番号:6758317
0点
Φοολさん
>現像ソフトに搭載されているピクチャースタイルの類いの、ある特定の色相(例えば肌色、空の青等)の彩度とコントラストを弄る処理は、RGB空間よりはluma+chroma空間で行った方が容易で、且つ精度が高いケースが殆どです。
色相、彩度については仰るとおりですが、実際にY/Cに変換してしまうのと変換後にマッピングしたことを予測して演算するのでは意味が違います。
Y/Cに変換する場合はホワイトバランスやガンマの後でなければなりません。
後段のホワイトバランスが固定されていることが前提の処理に破綻があることには言い訳無しですか?
まあ、これ以上はご自分で調べるという姿勢がない限り不毛の議論になります。
仮定を述べるまでは結構です。
調べること、実証すること、がなくては一人前の技術者ではないと思っています。
書込番号:6758352
0点
>カメラ内で1EV程度のダイナミックレンジの圧縮を行へば、大抵の人の場合、後処理に必要な手間と時間が節約される可能性が有ると理解するのは貴方には不可能みたいですね。
それはJPEG出力を使う人と純正RAW現像ソフト(EXIF内のモード設定のタグに沿った処理)にとってはありがたい機能ですから、手間と時間が節約されますね。
レベルの低い理解で足ります。
書込番号:6758370
0点
誤:Y/Cに変換する場合はホワイトバランスやガンマの後でなければなりません。
正:Y/Cに変換する場合はホワイトバランスの後でなければなりません。
書込番号:6758395
0点
> 英語で誤魔化さないで下さい。
> ここは日本語のサイトですから規約違反ではないでしょうか。
誤魔化しではありませんよ。貴殿が所望したluma変換の手法を説明しただけです。
また、「カキコは日本語で行うべき」とは価格.comの規約では何処にも記されていません。
> 後段のホワイトバランスが固定されていることが前提の処理に破綻があることには言い訳無しですか?
繰り返す様ですが、ある特定の色空間(例えばカメラ内)で行われたYのマッピングは、後の(例えばパソコン上での)画像データの処理に何ら不具合を与える訳では有りません。
色温度(要するにホワイトバランス)の異なる色空間同士の変換に関するvon Kries、Bradford等の手法を調べてみる事を提案します。
センサーは(∂Y/∂R,∂Y/∂G,∂Y/∂B)のdYベクトルが定義する固有の白点を持ち、lumaチャンネル等で行うトーンマッピング手法はその固有の白点を軸に展開すれば、後からそのセンサーのdY特性に合致した現像を行うソフトにはホワイトバランスの影響はありません。
> それはJPEG出力を使う人にとってはありがたい機能ですから、手間と時間が
> 節約されますね。
> レベルの低い理解で足ります。
まあ、JPEG現像がレベルの低い運用かどうかはユーザーそれぞれでしょう。
私はRAW撮りをしているユーザーの90%以上は、純正、サードパーティーと使用する現像ソフトに関わらず、JPEGファイルに現像していると思いますが。
また、JPEGは基本的には11.686EV以下のダイナミックレンジしか無い事を考えると、14ビットのADCを搭載しているカメラで1EV程DRを圧縮する機能を付けるのは、後からの手動のトーンマッピングの手間を省く結構な機能だと思いますが。
書込番号:6758607
0点
>まあ、JPEG現像がレベルの低い運用かどうかはユーザーそれぞれでしょう。
RAWによるJPEG現像ではなく、カメラのASICが生成するJPEGのことです。
元々(といか殆ど総て)画像エンジンはそのためにあるのですから。
レベルの低い理解というのは、理解するのに苦労しないという意味です。
>色温度(要するにホワイトバランス)の異なる色空間同士の変換に関するvon Kries、Bradford等の手法を調べてみる事を提案します。
一旦Yxy空間に変換する方法でしょうか。
そうであるなら、
>センサーは(∂Y/∂R,∂Y/∂G,∂Y/∂B)のdYベクトルが定義する固有の白点
の固有情報をRAW現像ソフトに渡す必要がありそうですね。
センサーの個体差は無視できないほど大きいという事実がありますが、個体差情報をも含め間違いなく渡せる手段があれば可能でしょう。
ただ、ニー処理などはRGB空間でもRGBをリンクさせれば良いだけですから、比較的簡単に出来ますね。
高彩度部分の処理などは各ベンダー独自の処理を行っていますし。
というか単に、Φοολさんの思いつき
[6740039]
>「A/D変換で得た素のリニアRGBチャンネルデータでは無く、そのRGBを基に生成した輝度情報(lumaチャンネル)をニー処理し、再度rawファイルに書き込む(あたかもA/D変換で得たみたいな)RGBデータに戻しているという結構手の込んだ処理をしている疑いがあります」
をごり押ししよういるように思えてなりませんが…
Φοολさんの主張「輝度優先モードはRAWデータに非線形処理を与える」は、客観的な実験により実証されることを希望します。
今のところ合理的な理由、説得性が無いため全くそのようには思いません。
書込番号:6758751
1点
>> 色温度(要するにホワイトバランス)の異なる色空間同士の変換に関する
>> von Kries、Bradford等の手法を調べてみる事を提案します。
>一旦Yxy空間に変換する方法でしょうか。
XYZ変換行列と、光源の色温度が変わった場合、目の錐体細胞の応答特性がどう変化するかをモデル化した行列を組み合わせた物です。
>そうであるなら、
>>センサーは(∂Y/∂R,∂Y/∂G,∂Y/∂B)のdYベクトルが定義する固有の白点
>の固有情報をRAW現像ソフトに渡す必要がありそうですね。
え〜と、現像ソフトはサポートするカメラのrawデータの特性(dYベクトル、原色のCIE xy座標等)は既にパラメーターとして内蔵しています。でなければ、そもそもそのカメラのrawデータからまともな画像を現像出来ませんから。
> センサーの個体差は無視できないほど大きいという事実がありますが、
> 個体差情報をも含め間違いなく渡せる手段があれば可能でしょう。
普通のユーザーはカメラの個体差は無視しても良いと思います。既存の現像ソフトの中でカメラの個体差を検出、反映しているのは殆ど皆無ですし。
測色的に忠実な再現に拘る人の為にはDxO v4以降がこのキャリブレーションターゲットを使ってカメラの校正をサポートしていますが:
http://perso.orange.fr/christophe.metairie.photographie/eng%20digital%20target.html
> Φοολさんの主張「輝度優先モードはRAWデータに非線形処理を与えている
> 疑いがあります」は、客観的な実験により実証されることを希望します。
測定が容易で、且つ再現性の良い13〜14EV位のダイナミックレンジを持つ三原色の光源が有れば比較的簡単に出来るんですが...
> 今のところ合理的な理由、説得性が無いため全くそのようには思いません。
合理性に関しては、手間を節約させる機能には弊害(暗部の若干のノイズ増加等)が軽微な場合、その実装に合理性は伴うと思います。
書込番号:6758978
0点
…独り言レスなので勝手に書きますから、無視してください。
>センサーは(∂Y/∂R,∂Y/∂G,∂Y/∂B)のdYベクトルが定義する固有の白点
んー、ただ…
RAWデータは、撮影時の環境、電球光下と青空光下ではニーをYにかける場合CIE Yxy上で基準とすべきYの座標は当然異なりますね。
それを知るはずもない現像ソフト(または画像エンジン)がどうやって知ってどこを基準にするのでしょうか?
良い例に、私はカメラでホワイトバランスを取ることはしません。
面倒だからです。
現場で一コマグレーカードを写しておくだけです。
ですからRAWデータEXIF内「撮影時の設定値」はウソの情報になります。
RAW現像時にそのグレーカードのコマのホワイトバランスデータを全コマにペーストすれば良いので。
ヘタをすると現場で見る液晶モニタの再生像は真っ青だったり真っ赤だったりしますが気にしません。
要するにグレーカードコマをRAW現像したときに始めて撮影現場の色温度を知ります。
さて、こうして撮ったRAWデータの基準白色点をどうやってエンジンが知るのでしょう…
書込番号:6759009
1点
光源の色温度に関わらず、全ての可視光はxyY、即ちXYZ座標で一義的に表現できます。
また、校正された光源で既知のYをセンサーに照射する事により、そのセンサー固有のdYベクトルが測定出来ます。
そのdYベクトルに沿った変換マトリックスで得たluma信号に任意のトーンマッピングを行う事は、カメラのrawデータをみる限り、センサーに照射されている光源のY値を変化させるのと全く区別出来ません。
そのセンサーベースのカメラのrawの特性(dYベクトル等)をパラメーターとして持つ現像ソフトはカメラが実際にみたXYZ座標をrawデータから導出できます。基となるXYZを得たら、それに任意のホワイトバランスとレンダリング空間(例えばAdobeRGB)への変換を行えば良い訳です。
書込番号:6759361
0点
というかそんな面倒な変換をしなくても、仮想のlumaレベルに重みを置いてRGBデータを相似変形(トーンカーブ)すれば済むように思います。
もしやるとしたらですよ。
そうすればいかなるRGBバランスに振ったところで元が同じカーブですから最後まで変わりません。
…なんか、考えるほどに非合理で馬鹿らしく思います。
純正ソフトでRAW自体が変形したように見えるのは、単にRAWファイルのEXIFに「輝度優先モード」なるタグが入っていて、それを純正ソフトが判別してカメラのASICと同じ処理をして見せかけていると思いますね。
にけさんのブログで、少なくとも明部側のデータ自体は変わっていないようですから、すでにΦοολさんの予想する内容は殆ど当たっていない確率が高いと思います。
はっきりするのはやはりサードパーティー製のソフトで検証することでしょう。
キヤノンの一部機種の特殊なモードのタグを読んで一々キヤノンの逆カーブ処理をするとは思えませんから、出力結果がどちらのモードでも同じなら、RAWデータ自体は同じはずです。
それと、検証するに当たってあまりダイナミックレンジの高い被写体も非現実的です。
人間の眼に見える変化のモード(眼に見える効果でないと意味ない)ですから、普通のグレースケールチャートでも十分変化が見えるはずです。
書込番号:6759811
0点
>出力結果がどちらのモードでも同じなら、RAWデータ自体は同じはずです。
間違いました。
輝度優先モードではカメラの露出は変えず1EV分 PGAのゲインを下げて(-6dB)記録するそうですから、データ値はこのモード時は半分になりますね。
単純に輝度優先モードを入れた場合、サードパーティー製のソフトで見ると1EV下がったデータが出てきたら、私の主張(というより一般常識的)は当たりです。
グレースケールも何も要りません。
にけさんのブログによると、
>高輝度側・階調補正を「する」にすると、ISOが200〜3200に限定されます。
このことからも、理屈的にはまったく合致します。
(ISO100ではアンプゲインを6dB下げるとデータが飽和する前に素子が飽和してしまって使えない)
実機とサードパーティー製ソフトさえあれば出来る検証です。
私には実機だけがありませんが。
どなたか検証をお願いできますでしょうか?
書込番号:6759855
0点
自己解決(というか人任せの)です。
あらためて人様にお願いする必要はありませんでした。
にけさんのブログを良く読んでいなかった自分が悪いのですが、この2つのキャプチャだけで十分証拠になります。
「階調優先モード」をオンにした時のヒストグラムと、オフにして露出を1EV下げた時のヒストグラムが載っていますので直リンクを貼らさせていただきます。
高輝度側・階調補正をした時。F2.0、1/100。
http://nike.cocolog-nifty.com/photos/uncategorized/2007/08/16/8273.jpg
高輝度側・階調補正をしない時。F2.0、1/200。
http://nike.cocolog-nifty.com/photos/uncategorized/2007/08/16/8277raw.jpg
この2つのヒストグラムが同じということは、やはり階調優先モードではアンプゲインを6dB下げて記録しているということです。
読んでいてわかっていた方には、ちょっと的外れな論議を延々としてしまったことをお詫びします。
あと厳密に検証するのはやはりグレースケールでの変形具合ですね。
既に議論というより馬鹿らしい領域に入ったと思います。
書込番号:6759909
3点
連レスすいません。
まとめです。
純正RAW現像ソフト(DPP)では輝度優先モードを入れた場合、露出は変わらずトーンカーブだけが変わったように見える。
このことから、RAWデータに変化があるように見える。
というのが純正ソフトを使っている場合の観測です。
しかしRAWデータ自体を観測すると、輝度優先モードを入れた場合RAWデータの露出が1EV下がる。
サードパーティー製ソフトで現像した場合は内部での露出補正が働かず、1EV下がった結果になると予想される。
その場合DPPの輝度優先モード時の内部的な露出補正値とトーンカーブを真似れば擬似的に輝度優先モードに似た効果が出せる。
…ということで間違い無いでしょう。
書込番号:6759949
1点
> この2つのヒストグラムが同じということは、やはり階調優先モード
> ではアンプゲインを6dB下げて記録しているということです。
「明部が飛ぶのを避けたい」
「暗部の黒潰れを防ぐ為に若干露出を持ち上げたい」
この矛盾する命題を同時に満足させる方法の一つが暗部に非線形のニーを掛ける事です。
その場合、トーンカーブはホッケースティック型になり、明部は殆どリニアです。
-6dBのゲインを掛けただけなら何ら既存の露出補正機能でマイナス1EVを設定したのと変わらないし、ISO範囲が制限される理由もありません。また、暗部には当然黒潰れが発生してしまいます。
繰り返す様ですが、14EV位のダイナミックレンジをカバーするトーンカーブの上部7EVだけを見て、明部はリニアだから暗部も当然リニアだろう、と結論づける人の見識と理解力を私は結構疑問に思います。
書込番号:6759960
0点
私のロジックは上記で100%繋がりましたので、もうΦοολさん程度の認識の人に何を言われても通じません。
大筋を言えば、DPPがRAWのEXIF内容に応じて処理を切り替えていることが決定的だということがわかったことです。(もっと早く気付いていれば…)
色空間の変換系も結構ですが、私と議論したいならばもっとハードの入力系統を勉強しましょう。
このご発言が如何に幼稚かは、デジタルカメラ内部のハード系を知っている人間にとっては話になりません。
ご自分で調べてみて下さい。
>-6dBのゲインを掛けただけなら何ら既存の露出補正機能でマイナス1EVを設定したのと変わらないし、ISO範囲が制限される理由もありません。また、暗部には当然黒潰れが発生してしまいます。
しかしながら、長い間議論にお付き合い下さいまして、感謝しております。
途中、的外れな議論もしてしまいました。
これからもよろしくお願いいたします。
書込番号:6760035
0点
>> -6dBのゲインを掛けただけなら何ら既存の露出補正機能でマイナス1EV
>> を設定したのと変わらないし、ISO範囲が制限される理由もありません。
>> また、暗部には当然黒潰れが発生してしまいます。
>
> このご発言が如何に幼稚かは、デジタルカメラ内部のハード系を知っている
> 人間にとっては話になりません。
話の流れを理解出来ない滑稽な方ですね。
[6759909]で「この2つのヒストグラムが同じ」と御自身が発言していた事をもうお忘れですか?貴方が「同じ」としているにけさんのサイトの8277raw.jpgは、8273.jpgに対し、シャッタースピードを一段早くし、結局露出補正機能でマイナス1EVと設定したのと変わりありません。
私は貴方とにけさんが「ゲイン-6dB」と「シャッタースピードでの露出補正マイナス1EV」のデータのリニアリティが同じ事だけに着目し、当該リニアリティがダイナミックレンジの上部7EVでしか確認出来なかったにもかかわらず、「輝度優先モード」は14EV相当もあるトーンカーブ全体に単純に-6dBのゲインを掛けた物と片付けている事に対して疑問を投げかけているのです。
貴方とにけさんが仰る「輝度優先モードはバッファーアンプのゲインを6dB下げるだけ」と云う手法は、例えばカメラはISO200に設定されているのに、アンプをISO100のゲインで運用する事ですね。
私はその様な手法の有効性を否定するつもりは有りませんが、「輝度優先モード」ではISO範囲が制限され、ISO6400をカメラ側に設定し、アンプをISO3200相当で運用出来ない事について合理的説明がされていない所がひっかかります。
にけさんは「輝度優先モードでは通常のISO6400のときの##さらに倍##の回路ゲインが必要」と、自らの「回路のゲインを##下げる##」推測とは全く相反している頓珍漢な理論を展開していますが...
書込番号:6760111
0点
あらら、まだ続いているんですね(^_^;A
スレ主さん、Canonかも?さんの疑問は、
「DIGIC U とか DIGIC V って Raw 撮りだと無関係ですよね?」
ということでしたね。
私は、あまり野暮な議論は好きではないのですが、見ている一般の方もおられると思いますので、もう一度だけ言わせていただきますが、これは、「関係ある。」が正しいですよね(^^;A
RAWに埋め込みJPEGやExifを入れるでしょう。このJPEGだけでも明らかですよね。
CMOSの固定ノイズは?
なぜ、RAWのみ撮りで、高感度ノイズ除去オンをすると連写コマ数が半減すると思いますか?(^^;)
キヤノンのHPなどで高速に14ビットA/D変換を可能にしているのもDIGICだという趣旨の説明をしているわけですが、キヤノンのこの説明は嘘なのでしょうかね?(^^;)
キヤノンのDigicの役割は非常に広汎だと思いますよ。
それを推論して議論しても詮無きことだと思いますが。まあ、実益があるのでしたら、そうも言えませんけれどもね。
書込番号:6761090
0点
Φοολさん
終わろうと思いましたが、他に読んでいる人が誤解を招きます。
全く主旨を外した論理でわかっていないようですので、説明することにしましょう。
「高輝度側・階調優先」は高輝度側だけRAW内EXIFとDPPの連携の確証が取れれば必要十分なのです。
■■■■■■■■■■■■■■■■■■■■
1DV取扱説明書 162項
高輝度側・階調優先
高輝度(ハイライト)側の階調表現性が向上します。適正露出(18%グレー)から高輝度限界までの範囲が拡張され、グレーからハイライトまでの階調がより滑らかになります。
■■■■■■■■■■■■■■■■■■■■
にけさんのブログの実験で「高輝度側・階調優先」にするとPGAのゲインが6dB下がること、純正RAW現像ソフト(DPP)を用いることが前提であることの連係動作でDPP現像時には露出が変わっていないように見せかけていることは間違いないですね。
PGAのゲインは下げたけれども「RAWの高輝度側の非線形変形」の跡は見えません。
例え上側7EV分だけの検証でも必要十分なのです。
そして
>-6dBのゲインを掛けただけなら何ら既存の露出補正機能でマイナス1EVを設定したのと変わらないし
のところでΦοολさんがこの意味をわかっていないことが見えました。
なぜわざわざこういうことをやるのか。
それは通常モード時には素子の飽和レベル付近(14bitデータのMSB付近)はカメラ内DIGICの現像では捨てられている(階調に残らない)ことが主眼点です。
ならばそのままPGAのゲインを下げることによって、その後段は半分のレベルで受け取り高レベル部の飽和は避けられますから、カメラ内のエンジンは素子の飽和レベル付近の階調まで保った処理「高輝度側・階調優先」を出来るということです。
低いレベルで受け取ったデータはエンジン内でレベルを持ち上げたり、トーンカーブなどの階調操作を行います。
つまり、高輝度側・階調優先モードの階調操作をするのは「DIGIC」であり、RAWデータ本体ではないということになります。
RAWデータは半分のレベルになって出力されていることが実験で確かめられました。
つまりエンジン前の段階で出力されていることになります。
にけさんの結論と何ら変わることはありません。
>「輝度優先モード」ではISO範囲が制限され、ISO6400をカメラ側に設定し、アンプをISO3200相当で運用出来ない事について合理的説明がされていない所がひっかかります。
ちゃんと説明されていますよ。
「この理由は、ISO100では、撮像素子の飽和が回路の飽和より先に起こってしまうので、ISO200以上の使用に限定して、撮像素子のDレンジを確保する必要があるからです。またISOが3200までなのは、ISO6400の場合、通常のISO6400のときのさらに倍の回路ゲインが必要なので、回路的に、もしくはノイズ的に限界があるためと思われます。」
低感度側の説明はこれで良いでしょう。
しかしISO6400側の説明は違っていると思います。
通常ISO6400はPGAのゲインによるものではなく、デジタルアンプ(つまり単純にデータを2倍レベルにする)で得ており、階調優先モードを入れるとトータルでデジタルゲインが4倍になってしまいう(階調が荒れる)からでしょう。
TAK-Hさん
こんにちは。
>スレ主さん、Canonかも?さんの疑問は、「DIGIC U とか DIGIC V って Raw 撮りだと無関係ですよね?」
>RAWに埋め込みJPEGやExifを入れるでしょう。このJPEGだけでも明らかですよね。
JPEGですからね、RAWデータ本体とは関係ありません。
>CMOSの固定ノイズは?
CMOS内で処理しています。
キヤノンのHPを参照して下さい。
http://cweb.canon.jp/camera/cmos/technology-j/noise_reduction.html
>なぜ、RAWのみ撮りで、高感度ノイズ除去オンをすると連写コマ数が半減すると思いますか?(^^;)
DIGICのスピードに足を引っぱられるからですね。
また高感度ノイズ除去ではデジタルNRが入ってRAWへ出力していると思います。
この点では影響を受けていると言えます。
>キヤノンのHPなどで高速に14ビットA/D変換を可能にしているのもDIGICだという趣旨の説明をしているわけですが、
単純にDIGICチップ内にA/Dコンバータを内蔵しているからでしょう。
ただし最近はCMOS内に内蔵するものが出てきています。
いろいろなメリットがありますので、これからはCMOS内蔵型が主流になるでしょう。
>キヤノンのDigicの役割は非常に広汎だと思いますよ。
RAW撮りオンリーだとDIGICの仕事はA/D以外とNRしか無いので、私はあまり関心ありませんね。
A/DがCMOS内に入ってしまうと、NRだけになります。
書込番号:6761369
1点
補足
>通常ISO6400はPGAのゲインによるものではなく、デジタルアンプ(つまり単純にデータを2倍レベルにする)で得ており、
ISO6400はPGAで32倍アンプ(ISO3200)し、それをA/D後のデジタルアンプで2倍にして等価的にISO6400を得ています。
書込番号:6761491
0点
以上のことを勘案しますと「高輝度側・階調優先」モードでは、14bit分の情報量があるデータを、13bit分に情報量を落としてRAW出力されているということになります。
トーンカーブの状態にもよると思いますが、情報量が減り暗部を立てていることが原因と見られるノイズ増加のレポートもあるようです。
ですから、その意味では「高輝度側・階調優先」モードはRAW出力に変化がないというのは言い方として間違いです。
正しくは「「高輝度側・階調優先」モードはRAW出力のレベルを半分に出力する」です。
影響が無いどころか、情報量を劣化させてしまうのでRAW撮りには使いたくないモードです。
書込番号:6761579
2点
> PGAのゲインは下げたけれども「RAWの高輝度側の非線形変形」の跡は見えません。
> 例え上側7EV分だけの検証でも必要十分なのです。
貴方の仰る様に、MSBは通常モードでは有効に使われていない、と仮定します。
MSBを動員した場合のレベルを便宜的に「200%」としましょう。
通常モードでは、MSBを捨てるので、最大レベルは「100%」となります。
基準グレーの18%はその100%より約2.474EV下がった所です。
つまり、貴方が普段使わないと仮定しているMSBを含めても、18%グレーからセンサー飽和レベルまで約3.5EVしかないことですね。
その明部3.5EV内の滑らかさと形から14EV相当のトーンカーブの暗部の形は有効には類推出来ません。
また、繰り返す様ですが、暗部にニーを掛けたホッケースティック型のカーブでは、明部はリニアなので、にけさんみたいにそのカーブの上7EV、つまり上半分を検証しただけでは暗部に非線形の処理が施されているかどうかは判定できません。
> 通常モード時には素子の飽和レベル付近(14bitデータのMSB付近)はカメラ内
> DIGICの現像では捨てられている(階調に残らない)ことが主眼点です
> [..]
> 「高輝度側・階調優先」モードでは、14bit分の情報量があるデータを、13bit分
> に情報量を落としてRAW出力されているということになります。
> [..]
> 情報量を劣化させてしまうのでRAW撮りには使いたくないモードです。
当方は以前から「高輝度優先モード」はダイナミックレンジをカメラ内で(例えば非線形な手法で)1EV圧縮している可能性を指摘していますので、それと同じ意味の「13bit分に情報量を落としてRAW出力されている」という推測を貴方がされている事に対しては勿論反論はございません。
しかし、貴方はまだ情報量の考え方が混乱している様に見えます:
貴方は「通常モード時には素子の飽和レベル付近(14bitデータのMSB付近)はカメラ内DIGICの現像では捨てられている」と仰ていますね。
つまり、これはMost Significant Bitは捨てているので、通常モードでも情報量は劣化されて13bitしかない事になりますので、情報量差に主眼を置いた貴方の論理には矛盾があると云う事です。
書込番号:6761854
0点
Φοολさん
>つまり、貴方が普段使わないと仮定しているMSBを含めても、18%グレーからセンサー飽和レベルまで約3.5EVしかないことですね。
>その明部3.5EV内の滑らかさと形から14EV相当のトーンカーブの暗部の形は有効には類推出来ません。
勿論、この実験では暗部の形は見えません。
しかし回路ブロックのどこからRAWが出ているかはわかりました。
暗部に変形を加えるなら、A/D直後の所で行うしかないですが、そんな変な回路見たこと無いですね。
また、そこにそういう回路(デジタル処理ですから擬似的な)を入れると、技術者としての見識をも疑われるくらいです。
Φοολさんが「黒つぶれ」という表現を使ったのも、その認識程度の低さと黒階調の劣悪なDPPくらいでしか画像を観測していないことの表れです。
撮像素子のアナログ段階からの黒レベルクランプの仕組みや画像のA/Dについての知識が不足していると思われます。
>つまり、これはMost Significant Bitは捨てているので、通常モードでも情報量は劣化されて13bitしかない事になりますので、情報量差に主眼を置いた貴方の論理には矛盾があると云う事です。
RAWさえ14bitの情報量が獲得出来れば問題ありません。
最初からRAWの話しかしていません。
仰るとおり、通常モード時の内蔵JPEGは下位13bitしか使っていないということになりますね。
それで十分かどうかは議論が分かれるところですが、効果が確認しやすい暗部側ということで結果オーライかと思います。
それでも12bitよりは1bit増えています、いや、12bitA/Dの時は下位11bitしか使っていなかった?!
書込番号:6761935
0点
> 勿論、この実験では暗部の形は見えません。
> しかし回路ブロックのどこからRAWが出ているかはわかりました。
> 暗部に変形を加えるなら、A/D直後の所で行うしかないですが、そんな変な回路見たこと無いですね。
回路、と言うかハードで行うのではなく、アルゴリズム、つまりソフトで、例えばluma変換してトーンカーブを弄って、またRGBに戻したららどうでしょうか。
イケガミさんは色相移動がないknee処理を一体どう行っているのでしょうね (笑
書込番号:6762022
0点
Φοολさん
>回路、と言うかハードで行うのではなく、アルゴリズム、つまりソフトで、例えばluma変換してトーンカーブを弄って、またRGBに戻したららどうでしょうか。
あのー、回路ってA/Dの後ですからデジタルでの疑似回路ですよ。
それも一種のアルゴリズムです。
言葉でいうには「回路」が手っ取り早い、頭の中にあるブロック図を使えるので話も通りやすいものです。
お話のレベルが想像以上に低いので疲れます。
それこそ内蔵JPEGのためのDIGICの仕事でRAWデータに出力すべきではありません。
RAW現像の意義を復習しますと「後で好きなアルゴリズムを使い、何度でも試行錯誤出来る」という最大のメリットがあります。
「高輝度側・階調優先モードにしたけれど、気に入らない。やはり元の状態に戻そう」
ということが出来るのがRAWです。
少し別の分野になりますが「非破壊編集」という考えに基づいています。
つまりオリジナルのデータには手を加えず、編集過程は別のメタデータに保存する。
やり直したければ以前行った変更がオリジナルデータを変形させていないため、何度やり直しても画質を劣化させることが無い…
JPEGには出来ない真似ですね。
一旦元データのカーブを変形してしまうと、それを元に戻すには逆カーブ特性を知らなければなりません。
純正のソフトでそれが出来ても、サードパーティーはその逆カーブ特性を知り得ないでしょう。
また、いくら元がリニア14bitでも非線形処理を加えてはその後の処理で情報量が落ちる可能性があります。
…といった意味で、RAWのオリジナルデータを変形させては価値が無くなると言っているのです。
>色相移動がないknee処理を一体どう行っているのでしょうね (笑
色相移動を無くすには、一番簡単なのは前述したとおりRGBを相似形にリンクしたKNEEを行えば良いですね。
しかしホワイトバランスを取った後という条件がありますが、テレビカメラの回路はその通りになっていますから、何の問題もありません。
また、テレビカメラも一々Y/CにエンコードしてYにKNEEを掛けるなんて馬鹿なことはしてません。
デジタル放送になって、出力だけY,Pb,Prになれば良いので、基本的に内部は総てRGB処理と思って差し支えありません。
ただいろいろな方法があって、画質的には一長一短ですので、一概にどのアルゴリズムが良いかは決められないと思います。
それは各ベンダーのみぞ知るというところでしょう。
書込番号:6762303
1点
> RAWのオリジナルデータを変形させては価値が無くなると言っているのです。
まあ、人によっては処理が簡単になり、手間が省ける事にも結構価値を見いだす事も有ると思いますが。
解像度を1/4にしたsRAWモード、つまり元の高解像度情報を捨てているフォーマットを搭載する某カメラもある事ですし。
> 色相移動を無くすには、一番簡単なのは前述したとおりRGBを相似形に
> リンクしたKNEEを行えば良いですね。
まあ、貴方は計算が苦手みたいなので、相似形にリンクしたRGBでニー処理みたいな非線形な輝度マッピングを行うと色相・ホワイトバランスが崩れると言っても無駄でしょうが。
> また、テレビカメラも一々Y/CにエンコードしてYにKNEEを掛けるなんて馬鹿なことはしてません。
こんな考え方では、例えばバンドパス・フィルタリングを信号の時間空間データでなく、フーリエ変換後の周波数空間で行うのは馬鹿らしいと云う事にもなりそうですね。
書込番号:6762398
0点
>相似形にリンクしたRGBでニー処理みたいな非線形な輝度マッピングを行うと色相・ホワイトバランスが崩れると言っても無駄でしょうが。
飽和した所ではそうなりますね。
それを回路とアルゴリズム次第で色相ズレを無くすことも出来ます。
(ホワイトバランスを取った後という条件を言いました)
それと、御主張はあくまでRAWのオリジナルリニアデータで行うという押しつけがましいものですが、そもそも上レスでその前提条件が崩れ去っています。
一度覚えた仕事を何とか採用されたように思いたいでしょうけど、残念ながらそうではありません。
>こんな考え方では、
正体が知れるので言わないでいましたが、私自身があるメーカーの設計に関係していますから。
あなたが毎日見ている映像もですね。
>解像度を1/4にしたsRAWモード、つまり元の高解像度情報を捨てているフォーマットを搭載する某カメラもある事ですし。
画素を一個飛ばしにサンプリングしただけですから、非破壊と取ることができます。
低解像度しか必要ない人にとっては、便利なフォーマットと思います。
書込番号:6762464
0点
>>相似形にリンクしたRGBでニー処理みたいな非線形な
>>輝度マッピングを行うと色相・ホワイトバランスが
>>崩れると言っても無駄でしょうが。
>
>飽和した所ではそうなりますね。
飽和とは関係ないのです。計算が苦手みたいなので、貴方には理解出来ないでしょうが...
> 正体が知れるので言わないでいましたが、私自身があるメーカー
> の設計に関係していますから。
> あなたが毎日見ている映像もですね。
まあ、映像関係の日本の大手電気メーカーの幾つかに私の本件とは関係ない、信号処理系のIP(知的財産)がライセンスされてますから、案外、御社の製品もデジタル要素が有れば、そのIPのもたらす付加価値を享受しているかもしれませんよ (笑
書込番号:6762851
0点
Φοολさん
ASICの開発でもしているのでしょうか?
まあそれなら、電話で話したりすると言葉が総て違うので納得ですが。
ものを学ぶ姿勢、事実を確認する力、自分の認識外のことを学ぼうとする努力等はまた別の次元ですけどね。
>相似形にリンクしたRGBでニー処理みたいな非線形な
>輝度マッピングを行うと色相・ホワイトバランスが
>崩れると
試しに、得意の計算で、
グレーカードを撮ってホワイトバランスを取りました。
すなわち回路中のあるポイントでR:G:B=1:1:1にして、RGBをリンクした非線形の変形を与えたとき、この「色相、ホワイトバランスがズレる」証明でもしてみてください。
あなたほど数学は得意ではありませんが、それを証明する仮定を見ることには興味があります。
無理強いはしませんけどね、お時間があれば。
書込番号:6763989
0点
> 試しに、得意の計算で、
> グレーカードを撮ってホワイトバランスを取りました。
> すなわち回路中のあるポイントでR:G:B=1:1:1にして
> [..]
> あなたほど数学は得意ではありませんが、それを証明する
> 仮定を見ることには興味があります。
貴方の場合、数学以前に、日本語力、例えば読解力を養った方が宜しいのでは?
========
[6739906]
RGBチャンネルそれぞれにニー処理みたいな非線形な処理を行った場合、ターゲットが完璧なグレーでない場合、必然的にR:G:Bの割合が非線形に変化し、カラーバランスがずれてしまいます。
========
書込番号:6764096
0点
Φοολさん
ホワイトバランスもズレると、自分で言っているでしょう。
>[6762398]
>相似形にリンクしたRGBでニー処理みたいな非線形な輝度マッピングを行うと色相・ホワイトバランスが崩れると言っても無駄でしょうが。
ホワイトバランスが崩れるというのは、一旦ホワイトが合った状態が無いと言えない言葉ですよね。
この発言を証明して欲しかったんです。
グレーの「色相・ホワイトバランス」が何故ズレるのか、不思議ですよね。
グレー以外のある色に対して非線形処理後に色相がズレるのは当たり前です。
この発言は間違いだったということでしょうか?
書込番号:6764133
1点
ん〜、揚げ足取りですね。
[6739906]を読めば解るとおり、グレー以外はずれると云っているので「カラーバランス」を「ホワイトバランス」と今回はいい間違えただけですが。
書込番号:6764154
0点
>今回はいい間違えただけですが。
了解です。
ちなみに私の分野では、非線形処理するのはCRTの逆ガンマ(γ=1/2.2)が基本ですので、CRTで空間的に再現された場合、色相は戻ることになりますので、回路側では考慮していません。
KNEE等の処理は付加的機能であること、ベクトルスコープやモニタ上で無視できる範囲であることから、厳密には管理していません。
歴史的に超アナログ時代からのものですので、そもそも無理があります。
最近はデジタル化されていろいろな付加機能が付きましたが、あまり厳密さに凝ると本来の性能を見失うので、ソフト屋まかせです。
以上です。
書込番号:6764180
0点
このスレッドに書き込まれているキーワード
「CANON > EOS 5D ボディ」の新着クチコミ
| 内容・タイトル | 返信数 | 最終投稿日時 |
|---|---|---|
| 13 | 2025/11/17 21:08:27 | |
| 28 | 2025/11/14 23:30:16 | |
| 10 | 2025/11/07 11:32:45 | |
| 9 | 2025/11/06 16:12:54 | |
| 15 | 2025/11/03 20:50:44 | |
| 12 | 2025/10/18 22:07:57 | |
| 8 | 2025/10/15 18:53:58 | |
| 45 | 2025/11/05 21:48:19 | |
| 5 | 2025/10/07 22:21:49 | |
| 3 | 2025/10/07 10:05:37 |
クチコミ掲示板検索
新着ピックアップリスト
-
【欲しいものリスト】外付けHDD
-
【欲しいものリスト】a
-
【Myコレクション】Windows11対応でCPU換装とディスク増強
-
【Myコレクション】pc
-
【Myコレクション】メインアップグレード最終稿
価格.comマガジン
注目トピックス
(カメラ)
デジタル一眼カメラ
(最近3年以内の発売・登録)










