Tema 01 Representación y comunicación de la información.
Table of Contents

Introducción

El término Informática proviene del francés Informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, acrónimo de las palabras information y automatique. La informática es el conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de dispositivos electrónicos y sistemas computacionales.
Así pues, aunque la informática tiene su primer origen en los primitivos intentos de lograr una máquina capaz de realizar automáticamente operaciones de cálculo, y aunque en términos relativos es una disciplina reciente (naciente en los años 60 del pasado siglo XX), su realidad actual es muy distinta, siendo ahora herramienta imprescindible en todos los campos de las ciencias, en cualquier actividad comercial, y siendo característica de la sociedad moderna en los países industrializados, donde se ha acuñado el concepto de sociedad de la información, que ha permitido el mayor grado de intercomunicación global entre todos los puntos del planeta.

¿A qué nos referimos cuando hablamos de Información?

Definición de Información

Denominamos información a todo conocimiento comprensible y aprehensible para el ser humano, susceptible de ser expresado en un lenguaje apropiado y de ser transferido a otros seres humanos, para ser compartido y utilizado.

La Información a lo largo de la Historia

En la Edad Media el almacenamiento, acceso y uso limitado de la información se realizaba en las bibliotecas de los monasterios.
En la Edad Moderna, con el nacimiento de la imprenta (Gutenberg), los libros empiezan a fabricarse en serie y surgen los primeros periódicos.
En el siglo XX, irrumpe la radio, la televisión e Internet
Hoy en día, ya en el siglo XXI, se habla de la sociedad de la información, que ha permitido el mayor desarrollo social y tecnológico en la historia de la humanidad, y se basa en la globalización del acceso a los enormes volúmenes de información existentes en medios cada vez más complejos, con capacidades ascendentes de almacenamiento y en soportes cada vez más reducidos.

Tipos de Información

Magnitudes.

Son valores numéricos (cuantitativos) expresados en una determinada unidad de medida.

Textos.

Son agrupaciones de símbolos especiales que son directamente interpretables en el modo humano de expresarse por escrito. Cada símbolo es distinguible y legible por separado, y se compone de símbolos elementales formantes de la comunicación verbal llamados caracteres (letras y números, también denominados caracteres alfanuméricos). Se llama alfabeto al conjunto básico de símbolos diferentes que componen todas las palabras formantes del texto.

Imágenes

Es el tipo de información que emula a la capacidad humana de la visión. Son percibidas directamente como representación del mundo real y su valor de información será mayor cuanto más lo sea su tamaño, y la precisión con que la imagen representa el objeto real. Esto se expresa con los conceptos de fiabilidad ó similitud entre la imagen y el objeto representado, y de resolución ó precisión empleada para la representación.

Señales

Son el tipo de información ligada a la variación de características físicas, que se va percibiendo de forma continuada con el paso del tiempo, como puede ser una sucesión más ó menos continua de sonidos y/ó imágenes. Valores como frecuencia de llegada de las señales, calidad de las mismas, precisión de las mismas son criterios para considerar el valor informativo de las señales.

La Información Digital

Como hemos dicho, los dos conceptos claves de la información son:

  • poder ser expresada de la manera más adecuada, para que pueda ser mantenida y aumentada sistemáticamente
  • y poder ser comunicada de forma eficaz a cualquier lugar donde se necesita, y en el momento en que se precisa

Para conseguir estos dos objetivos, se han inventado y desarrollado sucesivamente nuevas herramientas para el tratamiento y la transmisión de la información. Estas herramientas se basan en la información digital, que utiliza sólo dos símbolos, el 0 y el 1, para cualquier tipo de dato. Cualquier tipo de información es susceptible de ser convertida en digital, para su tratamiento y transmisión, y ser recuperada posteriormente con sus características originales.

Representación Digital de la Información

El fenómeno que convierte cualquier tipo de información en digital se denomina codificación y al proceso inverso decodificación. Para tener claro los conceptos de codificación y decodificación de la información, hay que conocer primeramente como funciona el sistema de numeración binario. Por ello entraremos brevemente en el estudio de sistemas de numeración.

Sistemas de numeración

Sistema para expresar gráficamente los números. Existen sistemas posicionales donde el valor depende de la posición (por ejemplo la numeración decimal) y otros no posicionales (sistema romano) donde el valor es independiente de la posición.

Cambios de sistemas de numeración

Paso de base b a decimal

Para p cifras enteras, q cifras decimales y siendo b la base:

N(b = np-1·bp-1 + np-2·bp-2 + ... + n1·b1 + n0·b0 + n1·b-1 + n2·b-2 + ... + nq·b-q = N(10

Ejemplo:

1234(5 = 194(10 (p = 4, q = 0, b = 5)
N(5 = n4-1·54-1 + n4-2·54-2 + ... + n1·51 + n0·b0 + n1·5-1 + n2·5-2 + ... + n0·5-0 = N(10
N(5 = n3·53 + n2·52 + n1·51 + n0·50 + n1·5-1 + n2·5-2 + ... + n0·5-0 = N(10
N(5 = 1·53 + 2·52 + 3·51 + 4·50 = N(10
N(5 = 1·125 + 2·25 + 3·5 + 4·1 = N(10
N(5 = 125 + 50 + 15 + 4 = N(10
 1234(5 = 194(10
Paso de un decimal a cualquier base

Se divide el número decimal por la base hasta que se obtenga un cociente menor que la base, luego se recoge el último cociente y los restos obtenidos en orden inverso. Ejemplo:

1234(10 = 14414(5
1234 / 5 = 246 | resto 4
 246 / 5 = 49 | resto 1
 49 / 5 = 9 | resto 4
 9 / 5 = 1 | resto 4
 1 / 5 = 0 | resto 1
 1234(10 = 14414(5
Paso de base b a base c

Se pasará de base b a base decimal y luego de base decimal a base c.

El sistema binario

El sistema de numeración de base dos, se conoce como sistema binario y utiliza los símbolos 0 y 1 que correxponden con un BIT (del inglés Binary digiIT, Dígito Binario).

Nombre de los grupos de bits, dependiendo de su longitud

4 bits nibble
8 bits byte / octeto
16 bits media palabra
32 bits palabra
64 bits doble palabra

Múltiplos del BYTE

10241 bytes KiloByte KB
10242 bytes MegaByte MB (1024 KB)
10243 bytes GigaByte GB (1024 MB)
10244 bytes TeraByte TB (1024 GB)
10245 bytes PetaByte PB (1024 TB)

Operaciones en binario

++++++Operaciones aritméticas
1. Suma

0 + 0 = 0
0 + 1 = 1
1 + 0 = 1
1 + 1 = 0 (y acarreo 1)

2. Resta

 0 - 0 = 0
 0 - 1 = 1 (y acarreo 1)
 1 - 0 = 1
 1 - 1 = 0

3. Multiplicación

0 · 0 = 0
0 · 1 = 0
1 · 0 = 0
1 · 1 = 1
Operaciones lógicas

1. AND

0 and 0 = 0
0 and 1 = 0
1 and 0 = 0
1 and 1 = 1

2. OR

 0 or 0 = 0
 0 or 1 = 1
 1 or 0 = 1
 1 or 1 = 1

3. XOR

0 xor 0 = 0
0 xor 1 = 1
1 xor 0 = 1
1 xor 1 = 0

El sistema octal

El sistema octal utiliza 8 símbolos {0,1,2,3,4,5,6,7}, la ventaja de este sistema es la facilidad para pasar un número octal a binario y viceversa.

000(2 = 0(8
001(2 = 1(8
010(2 = 2(8
011(2 = 3(8
100(2 = 4(8
101(2 = 5(8
110(2 = 6(8
111(2 = 7(8

Ejemplo: 1234(8 = 1 2 3 4 = 001 010 011 100 = 001010011100(2

El sistema hexadecimal

El sistema hexadecimal utiliza 16 símbolos {0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F} y ofrece la misma ventaja que el sistema octal.

0000(2 = 0(16
0001(2 = 1(16
0010(2 = 2(16
0011(2 = 3(16
0100(2 = 4(16
0101(2 = 5(16
0110(2 = 6(16
0111(2 = 7(16
1000(2 = 8(16
1001(2 = 9(16
1010(2 = A(16
1011(2 = B(16
1100(2 = C(16
1101(2 = D(16
1110(2 = E(16
1111(2 = F(16

Ejemplo: 1234(8 = 1 2 3 4 = 0001 0010 0011 0100 = 0001001000110100(2

Conversión de la información al formato digital

Cuantificación

La información en general es denominada analógica por su naturaleza continua, presentándose en un rango continuo de valores. El primer paso para convertirla al formato digital, es asumir un valor fijo para todos los valores analógicos comprendidos dentro de un determinado intervalo, y este valor suele ser el valor central del intervalo considerado.

Otras variedades de este proceso pueden ser establecidas, eligiendo intervalos de distinta longitud, más pequeños en aquellos rangos de valores donde es necesaria mayor precisión.

Margen de error

El error cometido como diferencia entre el valor efectivo, y el valor central asumido para su representación está limitado por la mitad de la anchura del intervalo. Es por lo tanto predecible y controlable. El nivel de estos errores se puede reducir adecuadamente, y en todo caso, por debajo del umbral de percepción del ser humano. La información es objeto del conocimiento humano, y es percibida con unos órganos sensoriales, que son dispositivos analógicos, basados en reacciones físicas y químicas. Su precisión no es infinita, lo que hace que no sean distinguibles pequeñas diferencias entre señales analógicas antes y después del procesamiento digital.

Codificación

Una vez reducido el rango continuo a un conjunto de valores discretos, el siguiente proceso es codificar numéricamente estos valores, obteniendo el conjunto de los valores numéricos digitales, en el código binario adecuado.

Extracción de la información desde el formato digital

Los valores binarios obtenidos contienen toda la información que contenía su forma analógica, de manera que se puede volver a recuperar ésta, si se han observado las debidas precauciones en los procesos anteriormente explicados.

Datos binarios

Magnitudes

1.Enteros
Cuantificados en binario natural, más codificación del signo.
2.Decimales
Codificando por separado los números a ambos lados de la coma, y su posición.
3.Reales
Codificando la expresión denominada coma flotante, con una base decimal, y un exponente entero.

Símbolos y Textos

Los textos son la expresión del lenguaje humano escrito, y se representan codificando por separado cada uno de los símbolos (caracteres) que lo componen, que pueden ser letras del un alfabeto, cifras numerales sin correspondencia con su valor numérico, signos de puntuación, caracteres especiales, y caracteres de control, y alineación.
La codificación se realiza mediante los códigos ASCII (American Standar Code for Information Interchange) y EBCDIC (Extended Binary Code Decimal Interchange Code), especialmente el primero. Cualquier información digital binaria se puede agrupar en bloques, e interpretarse directamente como un conjunto de caracteres, en este caso se dice que se tratan como ficheros de texto.

Imágenes

Se codifican como datos el tamaño de la imagen, la posición de cada elemento de la imagen en las dos dimensiones, generalmente llamado píxel, y los valores que definen su color. Hay multitud de formatos que guardan dicha información (JPG, GIF, PNG, DWG, TIFF, ecétera), algunos de ellos permiten la compresión de la información a base de perder cierta cálidad de la imagen. Los algoritmos de compresión tienen en cuenta ciertos parámetros de la visión humana para que esta perdida de informacón no sea visible a simple vista.

Audio

Hay multitud de formatos que guardan dicha información (CDA, WMA, ACC, MP3, OGG, ecétera), algunos de ellos permiten la compresión de la información a base de perder cierta cálidad del sonido. Los algoritmos de compresión tienen en cuenta ciertos parámetros del oido humano para que esta perdida de información no sea perceptible.

Video

Se consideran imágenes en movimiento, lo que equivale a una sucesión de imágenes a un ritmo suficiente para crear la percepción de movimiento. Se codifican de la misma forma, es decir, como imágenes sucesivas codificadas. Se les suele añadir sonido, lo que se consigue incluyendo la información sonora intercalada dentro del formato del video. Los formatos de video más conocidos son VCD, SVCD, AVI, DVD. La compresión de la información está implícita.

Redundancia en las codificaciones binarias

Cálculo de la redundancia R

R = 1 - (In / It)

siendo:

  • In = cantidad de información utilizada por el código
  • It = cantidad de información total

Por ejemplo el código BCD usa 4 bits para representa 10 símbolos distintos:

R = 1 - (10 / 24) = 1 - (10 / 16) = 1 - 0.625 = 0.375 = 37.5 % de redundancia.

Un código poco redundante es el que aprovecha al máximo todas las posibilidades que tiene para representar la información.

Detección de errores

A veces es interesante que un código sea redundante para facilitar la detección de errores e incluso repararlo. El bit de paridad (par o impar) es un ejemplo de redundancia para detectar errores. El inconveniente que tiene es que no es capaz de detectar un cambio en más de un bit.

Hay otros tipos de métodos capaces de corregir dichos fallos, uno de estos fallos consiste en añadir un bit de paridad vertical por cada grupo de bytes, cada uno de los cuales lleva su propio bit de paridad. Si el error fuera múltiple este se podrá detectar pero no corregir.

Existen métodos más efectivos como son los códigos de Hamming que son capaces de detectar errores múltiples y corregir errores sencillos utilizando en proporción menos bits de paridad. Estos códigos consisten en añadir varios bits de paridad colocados en las posiciones que son potencia de 2, de forma que cada uno proteja a varios bits del dato. Estos códigos son cada vez más utilizados en las memorias.

Si lo que se pretende es la detección de errores en las comunicaciones serie, existen códigos especiales ya que los errores producidos suelen afectar a varios bits consecutivos. Estos códigos llamados polinomiales o de redundancia cíclica (CRC) consisten en añadir a cada bloque un residuo (módulo) con respecto a un valor concreto representado por un polinomio.

Los códigos de Huffman presentan la particularidad de emplear códigos de longitud variable, de manera que el número de bits utilizados para codificar un carácter va a depender de la frecuencia de utilización.

Otro código corrector, el 2 entre 3, consiste en enviar la información por triplicado de forma que si dos de los tres bytes enviados son iguales podemos desechar el tercero.

Comunicación de la información

Características generáles de la comunicación

La comunicación es el intercambio de información entre dos o más entes. El emisor es el ente que envía dicha información a través de un canal de comunicación y el receptor es el ente que la recibe.

Sistemas de transmisión

Según sistema de transmisión

1. Por línea: cable de par trenzado, coaxial, fibra óptica.
2. Por radio: ondas terrestres y ondas vía satélite.

Según la direccionalidad de la transmisión:

1. Simplex: la comunicación se efectúa en un solo sentido.
2. Semi-duplex: existe comunicación en ambos sentidos pero no simultáneamente.
3. Full-duplex: hay comunicación en ambos sentidos de manera simultánea.

Según la forma de sincronización:

1. Asíncrona: la emisión y la recepción de la información no se realizan al unísono.
2. Síncrona: la emisión y la recepción de la información se realizan práticamente a la vez.

Según la naturaleza de la señal:

1. Analógicos: señal que toma valores continuos en el tiempo.
2. Digitales: señal que toma un número finito de valores (si sólo toma 2 se llaman señal digital binaria).

Problemas de transmisión

Los problemas asociados a la transmisión están relacionados con la naturaleza del medio físico de transporte, que no tiene una respuesta digital, sino que tiene propiedades físicas intensivas y extensivas (inercia, resistencia al cambio, elasticidad, interacción de desgaste con las señales que lo atraviesan?) cuyo efecto en conjunto es la degradación de la señal transmitida, que llega alterada al punto de recepción. Los problemas asociados a la transmisión de señales, se pueden enunciar como:

  1. Distorsión. Consiste, en alteraciones de la forma de la señal, debidos las características del medio.
  2. Atenuación ó pérdidas de potencia. Consiste en la pérdida del nivel de la señal, debido al desgaste.
  3. Alteración de la temporización. Causados por retardos, y tiempos de transmisión diferentes para distintas formas de señales.
  4. Ruido. Son las señales no deseadas que acompañan a la señal enviada, y que aparecen en recepción debido a su paso por el medio, y que en ocasiones pueden ocultarla, y, en todo caso dificultar su detección.

Codificación de línea analógica

Aunque estamos hablando de información de tipo digital, los medios de transmisión utilizados tienen una característica, y un comportamiento analógico, determinado por el transporte físico de las señales que contienen la información, por lo tanto, las señales que se transmiten por el medio son analógicas, aunque transportando secuencias de símbolos digitales. Es necesario pues, una nueva adaptación al medio analógico que se denomina codificación de línea, que consiste en generar, para cada símbolo binario, una señal que se adapte a las características del medio y que conserve el carácter digital, que va a ser transmitida alternativamente por la línea.

Esta adaptación analógica permite además evitar las principales causas de pérdida de calidad que afectan a las señales analógicas, especialmente la distorsión ó variación de forma de la señal.

Cifrado digital

Puesto que la transmisión utiliza un medio común físico, la información contenida en las señales puede ser accesible por otros, para ser leída, ó para ser alterada, ambas situaciones son altamente peligrosas. Las características de la información digital permite un proceso de codificación-decodificación completamente digital, que haga ininteligible la información ante cualquier acceso a ella de sistemas que no conozcan el tipo de codificación ó sus parámetros.

Compresión digital

Con el fin de reducir el tamaño de los datos a transmitir, y aumentar así la velocidad de transmisión, existen algoritmos de compresión de la información.

Comprensión lossless (sin perdida)

Compresores estadísticos
  1. Compresores del tipo Huffman o Shannon-Fano. Longitud codificación inversamente proporcional a la probabilidad de aparición del mensaje.
  2. Compresores aritméticos. Compresor también basado en la probabilidad de aparición de un mensaje, pero en este caso para la representación se utiliza un número en coma flotante.
  3. Compresores predictivos. Pretenden predecir el siguiente mensaje a transmitir partiendo del conocimiento que se tiene de los mensajes enviados hasta el momento.
Compresores basados en diccionario o sustitucionales
  1. Compresión RLE. Compresor de los menos eficaces pero de los más sencillos. Se basa en la sustitución de caracteres repetidos por un carácter más el número de repeticiones.
  2. Compresores Lempel-Ziv (LZ)
    1. LZ78. Esta técnica consiste en la elaboración dinámica de un diccionario donde se irán almacenando las cadenas aparecidas hasta el momento y a las que se le irán asignando identificadores, de forma que si aparece una cadena que ya está en eldiccionario, se enviará su identificador. Uno de los problemas de este método es el delimitar el crecimiento infinito del diccionario.
    2. LZ77. Este método guarda un registro de caracteres enviados, pero no construyen un diccionario propiamente dicho, sino que mantienen una "historia (o ventana)" de la entrada y un "buffer de adelantamiento". Este método de comprensión es utilizado en la mayoría de los compresores actuales, por ejemplo, hacen uso de él PK-ZIP, RAR, ARJ, etc.
  3. Compresores híbridos o de dos fases. Los compresores actuales utilizan ambos métodos (estadísticos y sustitucionales) para comprimir de manera más óptima.

Comprensión lossy (con perdida)

Se utiliza sobre todo para la codificación de archivos multimedia, dónde no es tan importante que la información recibida sea exacta y sí es muy importante la capacidad de comprensión.

  1. Codificación diferencial. La secuencia de valores son representados como la diferencia con respecto a un valor previo.
  2. Compresión basada en transformadas. Se basa en la representación de la imagen muestreada en términos de contenido de frecuencias de la imagen.
  3. Cuantización de vectores. División de la imagen en rectángulos de tamaño fijo y se basa en la utilización de un libro de códigos que se crea previamente, a raiz de las estadísticas de un grupo de imágenes de prueba que son similares en contenido a la imagen que se va a comprimir.
  4. Compresión fractal. Similar a la anterior técnica, pero en vez de seleccionar el bloque del libro más parecido, se puede aplicar una transformación geométrica a los bloques del libro de códigos para hacerlos coincidir mejor con el bloque de pixels que está siendo evaluando.
  5. Técnicas de compresión de imágenes en movimiento (interframe). La comprensión se basa por la eliminación de redundancia que se produce por las mínimas diferencias entre imágenes sucesivas.

Velocidades de transmisión digital

La transmisión digital se caracteriza por un parámetro, que es la velocidad binaria, expresada en baudios (símbolos por segundo), ó en la medida homogénea de bits / Kbits / Mbits por segundo.

Elementos de un sistema de comunicación digital

      +-------------------+                           +-------------------+
      |       EMISOR      |                           |      RECEPTOR     |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |   CODIFICACIÓN    |                           |   DECODIFICACIÓN  |
      | DE LA INFORMACIÓN |                           | DE LA INFORMACIÓN |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |   ENCRIPTACIÓN    |                           |  DESENCRIPTACIÓN  |
      |   DE LOS DATOS    |                           |    DE LOS DATOS   |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |    COMPRESIÓN     |                           |   DESCOMPRESIÓN   |
      |   DE LOS DATOS    |                           |   DE LOS DATOS    |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |    REDUNDANCIA    |                           | COMPROBAR ERRORES |
      |  CONTRA ERRORES   |                           |    TRANSMISIÓN    |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+   +-------------------+   +---------+---------+
      |   CODIFICACIÓN    |__\|    TRANSMISIÓN    |__\|  DECODIFICACIÓN   |
      |    DEL CANAL      |  /|    POR EL CANAL   |  /|    DEL CANAL      |
      +-------------------+   +-------------------+   +-------------------+
  1. El emisor es el encargado de generar la información a transmitir. Dependiendo del tipo de información, esta se codifica en binario, mediante la transformación más adecuada. Luego, si es necesario, los datos se encriptan para que no puedan ser interceptados. Opcionalmente, se comprimen para reducir su tamaño y así aumentar la velocidad de transmisión. Antes de enviar los datos, se realiza una nueva codificación orientada a que el receptor pueda detectar y corregir errores. Para enviar los datos, estos se transforman en una señal analógica que pueda ser enviada a traves del canal de comunicación.
  2. En la recepción se realiza el proceso inversio. Se decodifica la señal analógica, se detectan y corrigen posibles fallos. Si procede se descomprimen los datos y se desencriptan. Y por último se descodifica la información de forma que esta pueda ser comprendida por el receptor

Referencias bibliográficas y enlaces externos.

La estructura de este tema ha sido elaborada a partir del tema publicado en la web http://es.wikibooks.org/wiki/Temario_Oposici%C3%B3n_Profesor_Secundaria_Inform%C3%A1tica con licencia GNU Free Documentation License.
Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-ShareAlike 3.0 License