Información

Apariencia mover a la barra lateral ocultar Los códigos ASCII para cada uno de los caracteres de la palabra «wikipedia» representados en binario, el sistema de numeración más comúnmente utilizado para codificar información en computadora.

Información es el nombre por el que se conoce un conjunto organizado de datos procesados que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje


Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.

Desde el punto de vista de la ciencia de la computación, la información, es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del que posee dicha información con su entorno.

Etimología

La palabra «información» deriva del sustantivo latino informatio(-nis) (del verbo informare, con el significado de «dar forma a la mente», «disciplinar», «instruir», «enseñar»). Ya en latín la palabra informationis era usada para indicar un «concepto» o una «idea», pero no está claro si tal vocablo pudiera haber influido en el desarrollo moderno de la palabra «información».

Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que por metatesis surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual deriva la latina «idea»), esto es: «idea», «concepto» o «forma», «imagen»; la segunda palabra fue notoriamente usada técnicamente en el ámbito filosófico por Platón y Aristóteles para indicar la identidad ideal o esencia de algo (véase Teoría de las ideas). Eidos se puede también asociar a «pensamiento», «aserción» o «concepto».

Información en la sociedad

En las sociedades humanas y en parte en algunas sociedades animales, la información tiene un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en función de qué información disponible posee el primer individuo. Por esa razón, el estudio social de la información se refiere a los aspectos relacionados con la variación de la conducta en posesión de diferentes informaciones.

Para Gilles Deleuze, la información social es un sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas transmitidas.

Principales características de la información

En general la información tiene una estructura interna y puede ser calificada según varias características:

Historia de la información

La historia de la información está asociada a su producción, tratamiento y transmisión. Una cronología de esa historia detallada puede ser:

Usos de la información

Se considera que la generación y/u obtención de información persigue estos objetivos:

En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser elaborada para hacerla utilizable o disponible (este proceso empírico se llama Documentación, y tiene métodos y herramientas propios), pero también es imposible que la información por sí sola dote al individuo de más conocimiento, pues es él quien debe valorar lo significativo de la información: la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un «prefijo» de la información, es decir, un elemento previo necesario para poder obtener la información.

Información periodística

Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico -o la relación entre hechos novedosos o atípicos-, ocurrido dentro de una comunidad o determinado ámbito específico, que hace que merezca su divulgación.

Información y el Estado

El control y la manipulación es uno de los medios más poderosos de los gobiernos para promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el monopolio de la información para promover el acatamiento de sus políticas. La información tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los hechos. Así la propaganda compite con el derecho como instrumento de poder.

Teoría de la información

El enfoque de la teoría de la información analiza la estructura matemática y estadística de los mensajes, con independencia de su significado u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de la información son la capacidad de transmisión de los canales, la compresión de datos o la detección y corrección de errores.

Definición técnica

Información designa una disposición específica de los elementos que componen un sistema determinado, siendo capaz de provocar un efecto en el propio sistema o en cualquier otro. ​Esto equivale a afirmar que la información es una propiedad de un sistema físico. La información se refiere principalmente a disposiciones útiles para algún propósito específico. ​Por ejemplo, cuando un elemento se almacena en la memoria de una computadora, cada ubicación de la memoria se define de una manera específica (0 o 1), cuya secuencia forma una configuración que almacena un elemento específico (por ejemplo, una imagen).

Caracterización matemática

Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes A 1 , … , A n {\displaystyle \scriptstyle A_{1},\dots ,A_{n}} , cada una con probabilidad p 1 , … , p n {\displaystyle \scriptstyle p_{1},\dots ,p_{n}} ese conjunto de probabilidades constituyen nuestro conocimiento del mundo, una información debería reducir nuestra incertidumbre, variando las probabilidades a p ~ 1 , … , p ~ n {\displaystyle \scriptstyle {\tilde {p}}_{1},\dots ,{\tilde {p}}_{n}} . Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho más probables frente a otras alternativas que se han hecho menos probables.

Una forma de «medir la información» asociada a un mensaje o hecho observado es calcular como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de calcular la «concentración» de la certeza en algunas alternativas es la entropía estadística:

{ S 0 = − ∑ i = 1 n p i log 2 ⁡ p i ( incertidumbre inicial ) S f = − ∑ i = 1 n p ~ i log 2 ⁡ p ~ i ( incertidumbre final ) , I = − ( S f − S 0 ) ≥ 0 ( información ) {\displaystyle {\begin{cases}S_{0}=-\sum _{i=1}^{n}p_{i}\log _{2}p_{i}\quad ({\mbox{incertidumbre inicial}})\\S_{f}=-\sum _{i=1}^{n}{\tilde {p}}_{i}\log _{2}{\tilde {p}}_{i}\quad ({\mbox{incertidumbre final}}),&I=-(S_{f}-S_{0})\geq 0\quad ({\mbox{información}})\end{cases}}}

Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la segunda letra de una palabra del español. y nos dicen que en la segunda posición podría aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de cada letra y calculando:

S 0 = − p a log 2 ⁡ p a − p b log 2 ⁡ p b − ⋯ − p y log 2 ⁡ p y − p z log 2 ⁡ p z ≈ 4 , 04   bits {\displaystyle S_{0}=-p_{a}\log _{2}p_{a}-p_{b}\log _{2}p_{b}-\dots -p_{y}\log _{2}p_{y}-p_{z}\log _{2}p_{z}\approx 4,04\ {\mbox{bits}}}

Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces en segunda posición solo puede aparecer A, O, U (aunque existen un puñado de casos excepcionales de E e I) y por tanto con esa información se reduce mucha la incertidumbre:

S f = − p a log 2 ⁡ p a − p o log 2 ⁡ p o − p u log 2 ⁡ p u ≈ 0 , 91   bits {\displaystyle S_{f}=-p_{a}\log _{2}p_{a}-p_{o}\log _{2}p_{o}-p_{u}\log _{2}p_{u}\approx 0,91\ {\mbox{bits}}}

La información cuantificada de la pista «la primera letra es una Z» resulta ser:

I = − ( S f − S 0 ) ≈ 3 , 13   bits {\displaystyle I=-(S_{f}-S_{0})\approx 3,13\ {\mbox{bits}}}

Las unidades de información resultan ser bits puesto que se han empleado logaritmos de base 2. Si la pista hubiera sido «la primera letra es una M», la segunda letra solo podría ser A, E, I, O, U que es un conjunto más amplio y en este caso S f ≈ 1 , 54 {\displaystyle \scriptstyle S_{f}\approx 1,54} y en este caso, la pista lleva menos información porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los pasos anteriores de unos 2,50 bits.

Operaciones básicas con información

Surgen cuatro operaciones básicas sobre la información, estos son los pilares sobre los cuáles, al igual que las cuatro operaciones básicas de matemáticas (+ - x %) se pueden construir varios cuatrimestres de estudio Universitario. Estos son:

Sobre estas cuatro operaciones, tanto en su almacenamiento como en tránsito es que se construyen todas las operaciones complejas y desarrollos de software. Cabe mencionar también que son la base de cualquier tipo de ataque informático o Ciberataque.

Recuperación de la información

La cantidad de información y el conocimiento desarrollado aparentemente es enorme y tiene una metodología de recuperación, que eventualmente es infinita o total en un número muy amplio de soportes y sitios, y el modelo sistémico de recuperación debe maximizar la búsqueda para asegurar su captura lo más completa posible dentro del entorno de este sistema complejo. En el caso de búsquedas por Internet y usando dos o más descriptores, los resultados numéricos que dan los motores de búsqueda, que contengan los dos o más términos juntos o muy próximos, ya es una medida de la cantidad de información conseguida y que es en expresión matemática el ln o logaritmo natural de la suma de las interacciones validadas. Valores de 2 o 3 serán óptimos.

Información y física

En física existe una íntima conexión entre entropía e información:

Información y neguentropía

Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y hace el lazo entre la entropía informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se puede anular la entropía.

Información analógica y digital

Esta sección se refiere al almacenamiento, codificación y transmisión de información mediante señales analógicas y digitales. En el caso la información codificada analógicamente, los datos se traducen en forma de impulsos eléctricos, de manera que el flujo de información es constante y únicamente va variando de amplitud. En cambio, la información codificada digitalmente es aquella cuya codificación se reduce a dos valores: 0 y 1; es decir, se traduce al sistema binario.​ Todo este tipo de información, independientemente de que estemos hablando de música, imágenes, textos, etc, tiene la misma naturaleza.

Veamos las diferencias y por tanto, desventajas y ventajas que tiene un sistema u otro.

En primer lugar, la información digital al estar codificada con el mismo código, independientemente del formato, puede ser transmitida o copiada infinitas veces sin padecer daños o pérdidas, debido a que simplemente debe ser reconstruida por el software oportuno —se trata únicamente de números—. Por el contrario la información analógica no es tan precisa, pues pierde calidad al ser copiada.

Otra de las desventajas que tiene la información analógica es que ocupa un espacio físico, es estática y su conservación puede ser difícil con el paso de los años. Sin embargo, la información digital no ocupa ningún lugar físico pues se encuentra dentro de dispositivos capaces de leerla como un ordenador. Además, son datos que tienen la capacidad de fluir con gran facilidad y su conservación es completamente posible durante muchísimo tiempo; no se deteriora —aunque el medio que la almacena sí puede echarse a perder—. De hecho, si no son destruidos a conciencia, perduran para siempre.

Otra diferencia entre los dos tipos de información está en la facilidad o dificultad para compartirla. Es decir, la información analógica es más difícil de difundir. La ventaja de esto es que es mucho más fácil de controlar. En cambio la digital, al ser tan fácil de compartir hoy en día —vía Internet, por ejemplo—, es muy difícil impedir que circule una vez ha empezado a hacerlo, por lo que nuestro control sobre ésta es mucho menor.

Finalmente, la información digital se procesa de manera mucho más rápida a través de dispositivos como ordenadores o discos duros, de manera que esto facilita el tratamiento de la información. Ésta, debido a la naturaleza común de todos los formatos, puede combinar texto, imagen, vídeo, etc., en un mismo archivo.

Véase también

Referencias

  1. El vocablo indicaba originariamente «aquello que aparece a la vista», derivando de la raíz indoeuropea *weid-/wid-/woid-, «ver» (confrontar con la palabra latina video). De modo que puede consiguientemente asumir una gran multiplicidad de significados (por ejemplo en Sócrates indica al «modelo teórico» de una oración).
  2. Manso Coronado, Francisco Javier (2003). Diccionario enciclopédico de estrategia empresarial. ISBN 8479785659. «"Nos hallamos inmersos en una revolución... la tecnología de silicio se invento en 1945,el transistor en 1947,el primer ordenador en 1948...", pág. 257». 
  3. Shannon, Claude E (1948). «A Mathematical Theory of Communication». Bell System Technical Journal 27 (b-1598). ISSN , 379-423. 
  4. Leer, Anne (2001). La visión de los líderes en la era digital (2001). México : Prentice-Hall. ISBN 968-444-440-0
  5. Tubella i Casadevall, Immna (2005). «2.2. La economía de las TIC y la revolución digital.». En UOC, ed. Sociedad del conocimiento. 
  6. «An Internet Pioneer Ponders the Next Revolution». An Internet Pioneer Ponders the Next Revolution. Consultado el 25 de noviembre de 2005. 
  7. «The size of the World Wide Web». Consultado el 21 de febrero de 2010. 
  8. «El saber perdido en la era digital.Lucha por preservar la memoria colectiva en el ciberespacio». EL PAÍS. 03 de 2007. Consultado el 21 de febrero de 2010. 
  9. Federación de Cajas de Ahorros Vasco-Navarras-. «La revolución digital: Nueva economía e Integración Social». EKONOMI GERIZAN. VOLUMEN (9). Archivado desde el original el 14 de enero de 2020. Consultado el 21 de febrero de 2010. 
  10. Payne, J. Mark; Alonso, Pablo (2007). República del Perú: Evaluación de la gobernabilidad democrática. Madrid: Universidad Complutense, Instituto Complutense de Estudios Internacionales. p. 66. ISBN 9788496702059
  11. Dawkins, Richard (1986). The blind watchmaker (1st American ed edición). Norton. ISBN 978-0-393-02216-2.  |fechaacceso= requiere |url= (ayuda)
  12. Burgin, Mark; Mikkilineni, Rao (2022-11). «Is Information Physical and Does It Have Mass?». Information (en inglés) 13 (11): 540. ISSN 2078-2489. doi:10.3390/info13110540. Consultado el 25 de abril de 2024. 
  13. a b Da Silva, Rafael (16 de abril de 2024). «On the Resistance to Entropic Elevation of Genetic Information: The Solution to the Non-Randomness of Mutations With Reference to Their Essentiality». Preprints.org. doi:10.20944/preprints202404.1005.v1. Consultado el 25 de abril de 2024. 
  14. Hawking, Stephen W. (1996). The illustrated a brief history of time (Updated and expanded ed edición). Bantam Books. ISBN 978-0-553-10374-8.  |fechaacceso= requiere |url= (ayuda)
  15. Dawkins, Richard (2003). A devil's chaplain: reflections on hope, lies, science, and love. Houghton Mifflin Co. ISBN 978-0-618-33540-4.  |fechaacceso= requiere |url= (ayuda)
  16. Welsh, 1998
  17. Corletti Estrada, Alejandro (2020). Manual de la Resiliencia (2020). España : DarFe. ISBN 978-84-09-24465-2
  18. a b «Diferencia entre lo analógico y digital». Diferencias entre - La web de las diferencias. 5 de abril de 2011. Consultado el 29 de noviembre de 2018. 
  19. «Diferencia entre lo analógico y digital». Diferencias entre - La web de las diferencias. 5 de abril de 2011. Consultado el 29 de noviembre de 2018. 
  20. a b «Definicion de información digital». www.alegsa.com.ar. Consultado el 29 de noviembre de 2018. 

Bibliografía

Enlaces externos