sábado, 4 de julio de 2009

Evolución Historica

Desde épocas inmemorables, el hombre ha sentido necesidad de representar las cosas que le rodean. Tanto fue así, que las primeras formas de representación de la información que se conocen son las pinturas rupestres, hechas en las cuevas por los humanos de la prehistoria. Estas pinturas se conservan hoy en día y reflejan información de la manera de cazar de la época, se cree que al representarlo gráficamente, esperaban que los descendientes u otros miembros de las tribus pudieran aprender un nuevo método de caza.

La representación también se realizó de manera auditiva. Se generaban instrumentos de viento con los cuernos de los animales cazados y se establecía una serie de sonidos característicos que les permitía comunicarse a grandes distancias.

Posteriormente, también se usó la piedra y la arcilla como medio de representar información, tal es el caso de los relatos bíblicos en donde se empleó estos medios para representar la información de la época y poder ser transmitida a lo largo del tiempo. Los egipcios por su parte, perfeccionaron el arte de la representación de todo cuanto ocurría durante su reinado mediante imágenes, edificaciones y material escrito en papiro, arcilla, yeso, piedra y un nuevo método para representar la información referente a sus creencias que son las momias.


Posteriormente, con la aparición del papel en el 105 d.c. por la civilización china, se inició un proceso que progresivamente echó al olvido la mayoría de los antiguos soportes para la información escrita. Pero no fue sino hasta los 600 d.c. que se masificó el uso del papel para la representación de la información ya que era mucho más duradero y podía ser transportado sin mayor cuidado de que se rompiera como la arcilla o la piedra. En cuanto a la tinta para realizar la escritura o dibujos, se emplearon las mismas para dibujar sobre la piedra y/o arcilla.



Años más tarde, con el surgimiento del papel y la imprenta, apareció el libro impreso como forma superior de organizar y representar la información existente hasta el momento y crear las bases de una cultura que perdura actualmente.

La Información

CONCEPTO DE INFORMACIÓN.

Es un fenómeno que proporciona significado o sentido a las cosas, e indica mediante códigos y conjunto de datos, los modelos del pensamiento humano. La información por tanto, procesa y genera el conocimiento humano. Aunque muchos seres vivos se comunican transmitiendo información para su supervivencia, la superioridad de los seres humanos radica en su capacidad de generar y perfeccionar, tanto códigos como símbolos con significados que conformaron lenguajes comunes útiles para la convivencia en sociedad, a partir del establecimiento de sistemas de señales y lenguajes para la comunicación.

Los datos se perciben mediante los sentidos, estos los integran y generan la información necesaria para el conocimiento quien permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia social. El ser humano ha logrado simbolizar los datos en forma representativa, para posibilitar el conocimiento de algo concreto y creó las formas de almacenar y utilizar el conocimiento representado.

Existe una relación indisoluble entre la información, el conocimiento, el pensamiento y el lenguaje por lo que comprender la información es la forma de liberar el conocimiento que genera el pensamiento humano. Dicha liberación se produce mediante el lenguaje (oral, escrito, gesticular, etc.), un sistema de señales y símbolos que se comunican de alguna manera.

En pocas palabras y aplicándolo a una sociedad informática: La información es la commodity de la era digital. Internet su autopista. El Internet es la base de la globalización que se está dando a nivel mundial, por lo tanto, todo aquello que se transporte sobre él, llegará hasta el último rincon del mundo.

Sistemas de numeración


Los sistemas de numeración son las distintas formas de representar la información numérica. Se nombran haciendo referencia a la base, que representa el número de dígitos diferentes para representar todos los números.

El sistema habitual de numeración para las personas es el Decimal, cuya base es diez y corresponde a los distintos dedos de la mano, mientras que el método habitualmente por los sistemas electrónicos digitales es el Binario que utiliza únicamente dos cifras para representar la información, el 0 y el 1.

Otros sistemas como el Octal (base 8) y el Hexadecimal (base 16) son utilizados en las computadoras.

Al aparecer la computadora se establece con más fuerza el uso de estos sistemas de numeración: binario, octal y el hexadecimal. Dado que el hardware de las computadoras fue diseñado para trabajar en el sistema de numeración binario en donde solo existen dos posibles estados ( 0 -cero, 1 -uno) llamados bits. Y según la cantidad de bits agrupados en una sola cifra se le asigna un nombre a saber:

Nº de bits Nombre
  • 1 = bit.
  • 4 = Nibble.
  • 8 = Byte.
  • 1024 = Kilo bit.
  • 1024k = Mega bit.
  • 1024M = Giga bit.

Y a pesar de los avances o generaciones transcurridas de las computadoras, estas todavia emplean estos sistemas de numeración.


SISTEMA BINARIO:

Los circuitos digitales internos que componen las computadoras utilizan el sistema de numeración Binario para la interpretación de la información.

Este sistema utiliza dos cifras (el 0 y el 1) en dónde cada una de ellas se denomina bit (contracción de binary digit).

Para medir la cantidad de información representada en binario se utilizan múltiplos que a diferencia de otras magnitudes físicas utilizan el factor multiplicador 1024 en lugar de 1000, debido a que es el múltiplo de 2 más cercano a este último (210=1024).

El byte es la unidad básica de medida de la información representada mediante este sistema.

Consulta los siguientes enlaces y encontraras más información, además las operaciones y conversiones que se pueden realizar con el Sistema Binario.


SISTEMA OCTAL:

Los numeros en base 8 se llaman octal y utilizan los dígitos 0 a 7. Este Sistema de numeración una vez que se llega a la cuenta 7 se pasa a 10.


SISTEMA HEXADECIMAL:

A veces abreviado como hex, es el sistema de numeración posicional de base 16, empleando por tanto 16 símbolos.

viernes, 3 de julio de 2009

Datos vs. Información

Se debe distinguir entre dato e información. Dato es cualquier número, imagen, sonido, símbolo, nombre, entre otros; que no permite tomar ninguna decisión, porque no tienen un significado concreto, los datos deben procesarse para dotarlos de significado y convertirlos en información. Eso es lo que ocurre cuando trabajamos con un sistema informático, los resultados que nos muestra el ordenador son para nosotros información que nos ayuda en alguna tarea.

La utilización del ordenador comenzó con el procesamiento de datos; al ser desarrolladas muchas estructuras de datos, comenzó en los usuarios la necesidad de emplear los ordenadores como una herramienta de procesamiento de la información.

El ordenador, para poder procesar los distintos datos, debe convertirlos a un lenguaje numérico binario (0 y 1). Debido a la forma en que están construidos y al uso de los componentes electrónicos sólo dos valores pueden representarse. Para convertir los textos en números se utiliza un código de representación llamado ASCII (American Standard Code for Information Interchange) que es un estándar mundial. Una vez pasados a números se deben convertir esos números en valores binarios. Otro tipo de datos como sonidos o imágenes también deben convertirse en valores numéricos. En este apartado se verá cómo pasar de un sistema de numeración cualquiera (como el decimal) al sistema binario de los ordenadores.

Para que nosotros recibamos y obtengamos los datos en pantalla el ordenador ha de ser capaz de representarlos. los datos que el ordenador maneja no presentan el aspecto con que nosotros los vemos, sino que los materializa a modo de registros o posiciones de memoria (de un número determinado de bits) para su posterior procesamiento. Por tanto, aquellos datos que recibimos de forma escrita ante la pantalla, el ordenador los representa interiormente como un conjunto de bits.

Una de las tareas fundamentales del ordenador es la de interpretar los datos que son introducidos (letras y números, fundamentalmente) y codificarlos uno a uno. De igual manera, el ordenador debe ser capaz de representar los datos en el formato escrito adecuado para su salida, aunque su aspecto interior continúa siendo un código de bits.

Tipos de Información


El ordenador trabaja fundamentalmente con dos tipos de información:

  • Los datos, entendiendo por tal el conjunto de caracteres y valores.
  • Las instrucciones, que indican las diferentes operaciones que podemos efectuar sobre los datos.

El esquema de funcionamiento del ordenador, desde la visión lógica, se centra en la recepción de unos datos de entrada, que son procesados por él siguiendo las instrucciones del programa, y por tanto, obteniendo unos datos de salida o resultado de procesamiento.
Existen tres tipos de datos básicos que maneja el ordenador:


  • Datos de entrada: Llegan desde las unidades periféricas de entrada (teclado, lectores ópticos, escáneres, etc.) o desde unidades de almacenamiento (disco duro, disquetes).
  • Datos intermedios: Los obtenemos durante la etapa de procesamiento, pero no representan resultados definitivos de salida.
  • Datos de salida: Son los resultados del procesamiento. Se obtienen gracias a las unidades periféricas de salida (impresora, plotter...). También pueden ser almacenados para posteriormente operar con los mismos.

Codificación

Los computadores digitales actuales se basan en una tecnología electrónica que permite representar los datos mediante combinaciones de circuitos de tipo flip-flop o biestables. Estos elementos básicos sólo admiten dos estados, representados por el nivel de tensión a su salida.
La información que se representa mediante la combinación de elementos que sólo admiten dos estados se denomina información binaria. Cada uno de los elementos de la información binaria recibe el nombre de bit.
La codificación consiste en establecer unas reglas que definan una correspondencia entre cada elemento de información y la secuencia de bits que constituye su código. Existen varios criterios genéricos para establecer esta correspondencia, que se denominan sistemas de codificación.

SISTEMAS DE CODIFICACIÓN.

CODIFICACIÓN DIRECTA :
Es el más simple, y consiste en establecer una correspondencia biunívoca entre un conjunto de símbolos y un conjunto de códigos binarios mediante una tabla.
“Si se tiene una secuencia de n elementos tales que cada uno de ellos puede tomar 2 valores distintos (0 o 1), el número N de códigos posibles viene dado por 2n.”

CODIFICACIÓN POR CAMPOS:
Consiste en descomponer cada código en campos que codifiquen por separado diferente información. Esta codificación resulta más sencilla que la anterior, pero dificulta la manipulación de los códigos.

Imagen Digital

Una imagen digital, también llamada gráfico digital, es una representación bidimensional de una imagen utilizando bits (unos y ceros). Dependiendo de si la resolución de la imagen es estática o dinámica, puede tratarse de un gráfico rasterizado o de un gráfico vectorial. A menos que se indique lo contrario en general por imagen digital se entiende gráfico rasterizado.

IMAGENES RASTERIZADAS:
Una imagen rasterizada, también llamada bitmap, imagen matricial o pixmap, es una estructura o fichero de datos que representa una rejilla rectangular de pixeles o puntos de color, denominada raster, que se puede visualizar en un monitor de ordenador, papel u otro dispositivo de representación.
Se las suele caracterizar técnicamente por su altura y anchura (en pixels) y por su profundidad de color (en bits por pixel), que determina el número de colores distintos que se pueden almacenar en cada pixel, y por lo tanto, en gran medida, la calidad del color de la imagen.

Los gráficos rasterizados se distinguen de los gráficos vectoriales en que estos últimos representan una imagen a través del uso de objetos geométricos como curvas de Bézier y polígonos, no del simple almacenamiento del color de cada pixel. El formato de imagen matricial está ampliamente extendido y es el que se suele emplear para tomar fotografías digitales y realizar capturas de vídeo. Para su obtención se usan dispositivos de conversión analógica-digital, tales como escáneres y cámaras digitales.
La palabra "raster" tiene su origen en el latín rastrum (rastrillo), que se deriva de radere (raspar).
Colores: Cada pixel tiene su propio color; Una imagen rasterizada a color (o pixmap) normalmente tendrá pixeles con ocho bits para cada uno de los componentes de su color (rojo, verde y azul), a pesar de que existen otros métodos de codificación para este tipo de imágenes
Codificación: El número total de pixeles (resolución de imagen), y la cantidad de información de cada pixel (profundidad de color) determinan la calidad de una imagen rasterizada. Por ejemplo, una imagen que almacene 24 bits de información de color por pixel (el estándar para pantallas desde 1995) puede representar más matices de color que una imagen que sólo almacene 16 bits por pixel, pero no tendrá el mismo nivel de detalle que una que almacene 48 bits por pixel. De esta manera, una imagen con una resolución de 640 x 480 pixels (y por lo tanto que contiene 307,200 pixels) parecerá más pequeña que una imagen de 1280 x 1024 (1,310,720 pixels), pero de la misma calidad. Puesto que almacenar imágenes de alta calidad requiere mucho espacio, los programas de tratamiento de imágenes a menudo utilizan técnicas de compresión de datos para reducir su tamaño. Algunas de estas técnicas sacrifican información, y por lo tanto calidad de imagen, para conseguir ahorrar espacio en disco. Los informáticos se refieren a este tipo de técnicas como técnicas de compresión irreversibles o compresión con pérdida.

GRAFICO VECTARIAL:
Una imagen vectorial es una imagen digital formada por objetos geométricos independientes (segmentos, polígonos, arcos, etc.), cada uno de ellos definido por distintos atributos matemáticos de forma, de posición, de color, etc. Por ejemplo un círculo de color rojo quedaría definido por la posición de su centro, su radio, el grosor de línea y su color.

Este formato de imagen es completamente distinto al formato de los gráficos rasterizados, también llamados imágenes matriciales, que están formados por pixeles. El interés principal de los gráficos vectoriales es poder ampliar el tamaño de una imagen a voluntad sin sufrir el efecto de escalado que sufren los gráficos rasterizados. Asimismo, permiten mover, estirar y retorcer imágenes de manera relativamente sencilla. Su uso también está muy extendido en la generación de imágenes en tres dimensiones tanto dinámicas como estáticas.
Todos los ordenadores actuales traducen los gráficos vectoriales a gráficos rasterizados para poder representarlos en pantalla al estar ésta constituida físicamente por píxeles.
Principales aplicaciones:
Generación de gráficos : Se utilizan para crear logos ampliables a voluntad así como en el diseño técnico con programas de tipo CAD (Computer Aided Design). Muy populares para generar escenas 3D.
Lenguajes de descripción de documentos: Los gráficos vectoriales permiten describir el aspecto de un documento independientemente de la resolución del dispositivo de salida. Los formatos más conocidos son PostScript y PDF. A diferencia de los gráficos rasterizados, se puede visualizar e imprimir estos documentos sin pérdida en cualquier resolución.
Tipografías : La mayoría de aplicaciones actuales utilizan texto formado por imágenes vectoriales. Los ejemplos más comunes son TrueType, OpenType y PostScript.
Juegos de ordenador : En los juegos de ordenador 3D es habitual la utilización de gráficos vectoriales.
Internet: Los gráficos vectoriales que se encuentran en el World Wide Web suelen ser o bien de formato abierto (SVG) o bien SWF en formato propietario. Estos últimos se pueden visualizar con Adobe Flash Player.

jueves, 2 de julio de 2009

Formatos de Imagen Digital

Existe una gran variedad a elegir de entre varios formatos en que la información de tonos, brillos y contrastes va a ser recogida. Unos de ellos son comprimidos: algunos con pérdidas y otros sin ellas; otros en cambio no tienen compresión alguna. En algunos casos nos interesará que ocupen poco espacio porque tengamos memoria limitada, o porque queramos que tarden poco en descargarse desde Internet. En otros casos, nos interesará tener la máxima calidad posible y poco importará el espacio que puedan ocupar. Sepamos lo que pueden ofrecernos los formatos

Características de una imagen digital :

Dos son las características fundamentales que varían entre los diferentes formatos:

• Profundidad de color se trata del número máximo de colores diferentes que puede contener una imagen en un formato.

• Compresión si el almacenamiento de la información binaria es tal cual, o previo paso por una etapa de compactación de la información.

Formatos de ficheros de imágenes digitales
TIFF: es uno de los formatos de almacenamiento sin pérdidas que usan muchas cámaras digitales. También se usa en los programas de retoque de imágenes digitales. Es un formato de almacenamiento de la más alta calidad. Admite una profundidad de color de 64 bits, aunque gracias al uso de un algoritmo de compresión sin pérdidas consigue reducir su nivel de espacio. Su uso generalmente es en imágenes de alta calidad, cámaras digitales, escáneres, impresión.
RAW: se usa como alternativa a TIFF. Consiste en almacenar directamente la información que procede del sensor de la cámara digital. Si hubiera que convertirla a TIFF el proceso tendría una mayor demora y requeriría mayor espacio de almacenamiento. Los formatos RAW suelen ser distintos entre los fabricantes. Como inconveniente tiene que para poder trabajar con las imágenes en un PC o para imprimirlas hay que llevar a cabo su conversión a otro formato estándar, lo cual lleva un cierto tiempo. Sin embargo, el nivel de calidad que tienen las imágenes en RAW es semejante al de las imágenes TIFF. Admite una profundidad de color de 48 bits. Su uso mas común es en cámaras digitales
JPEG: Es uno de los formatos más populares, siendo uno de los más usados también en Internet. Permite almacenar y transmitir las imágenes ocupando muy poco espacio, aunque con pérdidas de calidad. Afortunadamente se puede decidir el nivel de pérdidas (y por tanto de calidad) que se desea tener. Aún con los niveles de calidad más altos en JPEG el ahorro de espacio es considerable frente a, por ejemplo, un fichero TIFF . Admite una profundidad de color de 8 o 24 bits. Este formato se usa generalente en: Cámaras digitales, Internet, impresión, intercambio de imágenes
GIF: es el otro gran conocido de los internautas. Utiliza un algoritmo de compresión sin pérdidas. Sin embargo, la calidad en las imágenes no llega a ser muy alta por su limitada profundidad de color (sólo 8 bits). Permite transparencias e imágenes rodantes (que reciben el nombre de GIFs animados). Su uso es muy común en : Internet, imágenes de reducido tamaño y logos. Admite una profundidad de color de 1 a 8 bits
PNG: otro de los formatos de Internet, aunque no tan popular como los dos anteriores. Ha sido concebido como el sustituto de GIF, incrementando su profundidad de color (hasta los 48 bits) y usando un mecanismo de compresión sin pérdidas mejorado. Admite una profundidad de color de 1 a 48 bits. Es utilizado en internet, gráficos, iconografía software.
PSD: se trata del formato nativo del conocido programa de retoque fotográfico Photoshop. Admite capas, texto y almacena el estado de edición / manipulación en que puede haber quedado una imagen. Permite almacenar las imágenes con la calidad más alta, aunque a costa del uso de un gran espacio en disco. Admite una profundidad de color de 1 a 64 bits. Por todo esto se utiliza en edición y manipulación.

El Sonido Digital


El sonido viaja en forma de ondas y a través del aire. Cuando mayor es la onda más fuerte es el sonido.

La onda se forma por la presión provocada por los objetos que vibran, desplaza partículas de aire creándose la onda. Esta onda llega al tímpano de nuestro oído y vibra. Esta vibración es lo que oímos y definimos cómo sonido.

La onda de las partículas de aire forma una onda de sonido.
El sonido digital es un poco más complejo que el analógico, ya que no se almacena mediante oscilaciones de onda, sino que se ha de convertir en ceros y unos, lenguaje digital (código binario o máquina).

El proceso de digitalización precisa la grabación de la altura actual de la onda de sonido a intervalos regulares. La longitud de estos intervalos se denomina, tasa de muestreo, a ese proceso se define como muestrear. Cada nivel o pico es una muestra y cuando las coloca todas juntas ordenadas forman una representación digital de la onda de sonido


Onda de sonido digital












El sonido importado a un programa se representa como onda de sonido. Los picos representan la amplitud o intensidad del sonido durante un espacio de tiempo.

A la conversión del sonido de analógico a digital, se denomina Analog Digital Conversión o Conversión Analógico Digital.


Formatos de sonidos digitales
Una vez se ha producido la conversión del sonido a formato digital, obtenemos varios formatos "Codecs".

Algunos formatos son : AAC ,MP3 , MP3Pro, Vorbis, RealAudio , VQF, WMA, AIFF, FLAC, WAV, MIDI, mka