02-10-2013, 12:39 AM
(Este mensaje fue modificado por última vez en: 02-10-2013, 12:58 AM por LoKo.)
(02-10-2013, 12:14 AM)hashield escribió: Bueno el problema o mi dilema es que realmente se pueda notar la diferencia quizás algunos dirán bueno si tengo 8 bits y mi TV trabaja también a 8 bits entre enviar los datos se pierde algo de calidadLOL wat?
Si trabajas con la misma cantidad de bits no ha de haber perdidas.
(02-10-2013, 12:14 AM)hashield escribió: pero si tengo los datos en 10 bits y los paso a un TV de 8 bits no se pierde nada ya q al disminuir algo de mayor tamaño en informática nunca se pierde calidad cosa q si pasa a la inversa...
LOL wat?2
Esto es una gilipollez como la copa de un pino.
Si pierdes bits, pierdes información.
Ejemplo absurdo: Según tu, reducir bits no reduce calidad.
En vez de usar 8 bits por color, pasemos a usar 1 bit por color, teniendo en total 3bits por RGB(que también hay otras representaciones, pero eso ya es otra cosa).
Con este nuevo formato tenemos 2^3 colores, que no me da ni para mostrar correctamente una foto de un estuche de lapices de colores normalito.
Otro ejemplo absurdo. Para que usar 8 bits para representar caracteres si con 1 ya tengo la misma "calidad" de escritura. (para los no entendidos, usar 1 bit para caracteres nos dejaría que solo podríamos escribir 2 caracteres, nada más).
Ejemplo tontaina de incrementar tamaño pierdes calidad: tengo mi flamante estandard de 2^3 colores con el que me voy a forrar porque podre enviar blue rays que no llegaran al giga pero tendrán la misma calidad. Ahora le añado un bit más y tengo 2^6 colores.
Mágicamente tengo para representar los mismos colores y algunos más, pero oooooohh sorpresa, la calidad es peor.
Más que hablar de color profundo hablemos de subnormal profundo.