lunes, 25 de marzo de 2013

Tu computadora y tú: hora de aprender (ii)

Hoy quiero quitarme de encima un concepto importante, para finalizar esta exposición más bien teórica que he denominado "amueblar la cabeza". Al igual que con la entrada anterior, se trata de asentar los conocimientos suficientes para que leer explicaciones de cualquier índole deje de resultar un buen sistema de tortura. Y es que acudiendo a otro gran dicho:

Sólo alguien que domina un tema en profundidad es capaz de explicarlo de forma que no lo entienda nadie

El Sistema Operativo, el Hardware y el dolor de cabeza

Es notable como los usuarios de jerga técnica asimilamos conceptos ligeramente erróneos, sin percatarnos de que nosotros entendemos los matices equivocados, pero que los usuarios no técnicos pueden no estar al tanto de ellos.

Definimos "Sistema Operativo" como una aplicación o grupo de ellas que funcionan de "interfaz" entre los usuarios y el computador físico, y nos quedamos así de contentos. Es una definición con una metáfora muy visual y clara, muy poderosa, y por eso es muy fácil de aceptar.

Descuidando el hecho de que no necesariamente todo el mundo sabe lo que es una Interfaz, el error realmente no es tal, sino una diferencia de concepto: ¿quién es el usuario, desde el punto de vista del Sistema Operativo?

El usuario, para aquellos que usamos computadores, es una persona física que utiliza el computador. Muchos Sistemas Operativos permiten tener cuentas de usuario, con sus opciones de configuración personal, su propio espacio para guardar documentos, etc. En tales sistemas, un usuario dado incluso puede tener una o varias cuentas, según sus necesidades.

Los informáticos no tenemos dudas con esta cuestión, ya que todos conocemos la historia de la computación lo suficiente para tener un buen punto de vista.

Hay que recordar que hubo un tiempo en que los computadores no disponían de Sistemas Operativos. Al principio, se les proporcionaba un programa en binario que deberían ejecutar; los primeros sistemas operativos simplemente eran una mejora de esto: en lugar de proporcionar un programa completo con todo lo que se debía hacer, simplemente ser proporcionaba una lista de tareas que el computador debía completar. Naturalmente, el computador debía de disponer de una aplicación para poder ejecutar tales tareas.

A partir de un momento dado, se pensó que era una pena que todos los recursos de un computador -memoria, uso del procesador, impresoras...- se dedicasen a la ejecución de tareas consecutivas. No tiene sentido, argumentaban, tener que esperar a que finalice una impresión -lenta, tediosamente lenta en la época- para ejecutar la siguiente operación de la lista. Así, los Sistemas Operativos fueron evolucionando. tiempo compartido, multiusuario, multipuesto.... a medida que aumentaban sus responsabilidades en el trabajo diario.

Con esto quiero decir que los desarrolladores de aplicaciones cada vez tenían que centrarse menos en lo que era común con otras aplicaciones que usasen el mismo computador. Los técnicos distinguimos Sistemas Operativos de propósito general (MS Windows, MacOS, GNU/Linux...) de los Sistemas Operativos de propósito específico (típicos de sistemas industriales).

Fijaos en el celebérrimo Windows de Microsoft: no trae soporte para CAD (Diseño Asistido por Computador). Son relativamente pocos los clientes que necesitan esto, así que los pocos que lo hagan instalarán la aplicación de turno (digamos, AutoCAD) y no se preocuparán más. Sin embargo, sí trae soporte para 3D, ya que asume que buena parte de las personas que usen Windows lo harán para jugar a juegos con 3D, más que porque de pronto haya un entusiasmo generalizado por diseñar escenas tridimensionales. Por su parte, Android incluye soporte para los sensores que incluyen los más modernos smartphones.

En sentido técnico, los usuarios de un Sistema Operativo son las aplicaciones desarrolladas para el mismo. Una persona real utiliza simplemente aplicaciones: una hoja de cálculo, un programa de diseño CAD, un reproductor multimedia. El Sistema Operativo simplemente proporciona una interfaz para poder utilizar dichas aplicaciones (un intérprete de comandos, una interfaz gráfica...). Hay aplicaciones específicas para tareas generales, tales como organizar archivos y configurar aspectos del sistema, que reciben el nombre de aplicaciones de sistema. En general, las aplicaciones del sistema forman parte del Sistema Operativo de turno, lo que explica la confusión.

Todo esto quiere decir que los únicos usuarios de un Sistema Operativo son las aplicaciones que haya o pueda haber en el mismo.

Drivers

Driver  significa "conductor"; mas en este contexto, no es la imagen personalizada de alguien que conduce un coche, sino más bien en la labor de conducir el propio coche propiamente dicha. El conductor se encarga de guiar el coche, decirle cómo y por dónde tiene que ir.

En informática, los Drivers son una forma de indicarle a un Sistema Operativo cómo funciona un dispositivo dado: un monitor, una tarjeta de sonido...

Pensemos en una impresora. Puedes abrir un documento de texto en tu suite ofimática y en un editor de textos simple. Escribe en ambos "Hola mundo".

En la suite ofimática el documento a imprimir contendrá información sobre el formato del texto, márgenes, etc. Por su parte, en el editor de textos el documento sólo incluirá la lista de caracteres que se quiere imprimir. El Sistema Operativo dispone de una operación para enviar documentos a una impresora. Para ello, convierte ambos documentos en documentos imprimibles y los coloca en una carpeta más o menos temporal en cola, de donde el sistema de impresión los irá tomando de uno en uno para ser impresos.

Sin embargo, hay infinidad de tipos de impresoras muy distintas entre sí. Hacer un Sistema Operativo que manejase todas sería una locura. En su lugar, se crean ficheros que le indicarán al Sistema Operativo como funciona cada una de ellas (cada marca, modelo o tipo) y en cada computador se instala simplemente el driver de las impresoras realmente disponibles.

Que tu impresora funcione o no en Windows, MacOS o GNU/Linux es cuestión de que alguien haya creado tal driver. Naturalmente, los más indicados para crear tales drivers son los fabricantes de dicha impresora.

Esto no es tan importante hoy, si bien es la causa de que lo más habitual sea que el hardware más reciente no funcione directamente en ningún Sistema Operativo hasta que se instale el driver de turno. Los desarrolladores del Sistema Operativo no pueden prever qué dispositivos van a a existir años después del desarrollo del Sistema Operativo. Esto puede cambiar en las actualizaciones del sistema de turno, por supuesto.

Eventualmente, algunos dispositivos son más estandarizados que otros, o al menos más parecidos a otros ya existentes. En tal caso, es más fácil obtener el soporte preciso; sin embargo, otros dispositivos son casi tan complejos como el propio computador, así que la disponibilidad de un driver para el mismo puede ser crucial. Piénsese en las tarjetas de vídeo, por ejemplo.

Leyendo esto alguien podría pensar que el mundo de la informática se simplificaría enormemente si los fabricantes siguiesen estándares o si hubiese más información al respecto. Bien, la mayoría de las empresas tienen esto como estrategia empresarial, y eso es difícil cambiarlo. De hecho, el movimiento OpenSource comenzó por un driver de una impresora. En realidad, buena parte de la nueva innovación tecnológica consiste en un continuo reinventar la rueda.

Para que un driver funcione, debe de estar cargado en memoria. En sistemas operativos modernos hay varios programas residentes que se encargan de utilizar determinados específicos. Por ejemplo, CUPS es un servicio de impresión estándar para Unix; otro buen ejemplo es udev, que es el sistema que utiliza Linux para cargar dinámicamente cualquier dispositivo que se conecte al computador: detecta que se conecta un dispositivo, qué dispositivo es y carga el driver adecuado si está disponible.

Tal vez hayas oído que los usuarios de MacOS o GNU/Linux se burlan de los "reinicios" de Windows. En MS-Windows, muchos de los drivers son cargados de forma estática, por lo que hay que reiniciar el sistema para que el núcleo cargue el driver de turno: da igual que sea la red, una tarjeta de vídeo nueva... incluso muchos de los ajustes de tales drivers requieren que el núcleo se cargue otra vez. Los dispositivos que no necesitan esta operación tienen incluso un nombre muy chulo: "plug and play" (enchufar y listo). Los sistemas basados en Unix, por su parte, disponen de mecanismos para cargar casi cualquier driver en cualquier momento, y por tanto rara vez necesitan ser reiniciados.

Humanos y computadores

Los Sistemas Operativos que he denominado de propósito general suelen tener como objeto el ser utilizado por personas. Se espera que una persona arranque el sistema de turno y ejecute las aplicaciones que necesite. Eventualmente, parará el sistema cuando no lo necesite.

Cualquier Sistema Operativo ofrecerá a la persona que lo maneje una interfaz adecuada (al menos, al objeto del Sistema Operativo de turno). MS-DOS traía un Intérprete de Comandos (un nombre común en inglés para tales interfaces es shell); posteriormente se desarrolló un Entorno Gráfico para hacer uso de las capacidades gráficas de los (entonces) nuevos computadores y supuestamente hacer más fácil la vida de los usuarios. Buena parte de la historia moderna de Windows pasa por la necesidad de la empresa de hacerles creer a sus usuarios que su sistema es completamente gráfico, algo que sólo consiguió con la publicación de Windows XP. Por su parte, MacOS hasta su versión 9 no tenía tal intérprete y todo el sistema funcionaba de forma gráfica. Cosas de la vida, al sacar la versión 10 (en números latinos, X) decidieron cambiar a una versión de FreeBSD, con lo cual ahora disponen de al menos un shell al más común estilo Unix.

GNU/Linux, como FreeBSD y otros "Unix-like", utiliza una aproximación diferente. El sistema se arranca en modo texto o gráfico a voluntad del usuario. En realidad, estos sistemas ponen en marcha "servicios", donde el sistema gráfico o texto es en realidad uno más. Hasta hace bien poco, incluso, era muy habitual que una sesión gráfica GNU/Linux se arrancase con los servicios en modo texto y el servidor gráfico. Algunas distribuciones siguen haciéndolo así, proporcionando un servicio de login en una pantalla y un servicio gráfico en otra, pudiendo acceder a cualquiera de los dos modos con diferentes combinaciones de teclas.

Interfaz de Intérprete de Comandos

La forma más simple de utilizar un computador es pidiéndole a una aplicación interactiva que ejecute las tareas que necesitamos. Como he dicho antes, estas aplicaciones son denominadas normalmente en inglés con shell o command shell. Esto es porque la aplicación suele tener que hacer mucho más que discutir con la persona que lo maneja.

Por ejemplo, varios usuarios pueden usar el sistema a la vez (al menos, en los sistemas multiusuario tales como GNU/Linux), así que el shell deberá permitir trabajar a tales usuarios sin que interfieran entre sí. Además, cada uno de ellos puede tener ajustes personalizados distintos de otros usuarios. Incluso es posible que la misma persona esté usando varias cuentas de usuario a la vez en el mismo sistema.

En estos sistemas, la ejecución de cualquier Intérprete de Comandos va precedida por algún sistema de autentificación del usuario. Los sistemas GNU/Linux hacen esto con las aplicaciones login (que permite a un usuario iniciar una sesión en modo texto) o su (que permite a un usuario cambiar a otro para efectuar una serie de tareas de forma temporal).

Los sistemas gráficos más populares disponen de herramientas para tener acceso al intérprete de comandos; en realidad, esas herramientas simulan un intérprete de comandos, y por ello no necesitan autentificación: se asume que el usuario ya realizó esa tarea cuando conectó con el sistema gráfico.

Interfaz de Entorno Gráfico

La idea tras los escritorios gráficos es similar a la de los shell anteriores, pero con muchas diferencias. Todas ellas se resumen en la plasmación de la metáfora de un "escritorio" convencional. Así, cualquier interfaz de este tipo proporcionará un fondo en el que se disponen los distintos elementos, un organizador de ficheros, una forma gráfica de arrancar las distintas aplicaciones disponibles... los sistemas más populares utilizan el concepto de "ventana" para contener cada aplicación salvo el escritorio en sí (que es más una suerte de fondo).

Baste de textos por hoy!! una buen sitio para leer sobre escritorios es la habitual wikipedia. En castellano: http://es.wikipedia.org/wiki/Entorno_de_escritorio; para quien no tema al inglés, http://en.wikipedia.org/wiki/Desktop_environment

Archivos y ficheros

Es común ver un uso intercambiable entre ambos, lo que a veces despista mucho. Archivo se refiere más a la organización de la información, mientras que Fichero se refiere a cada documento concreto. Podríamos pensar en un archivo como la suma de todos los ficheros disponibles en el sistema.

Por supuesto, hay muchos tipos de ficheros: documentos del usuario, ficheros que representan a los dispositivos del sistema, el núcleo del sistema, cada driver...

Y hay muchas formas de organizar ficheros (se llama "Jerarquía de Ficheros"): por ejemplo, la mayoría de los sistemas utilizan unos ficheros especiales denominados Directorios o más modernamente por influencia de MS-Windows Carpetas. Estos ficheros pueden contener ficheros normales o bien otros ficheros especiales. Así, puedes tener un vídeo denominado caídaPorLasEscaleras.avi guardado en la carpeta Vídeos; esta carpeta a su vez puede estar guardada por ejemplo en otra denominada MisCosas.

Los sistemas basados en Unix utilizan una jerarquía completa. Hay una carpeta llamada raíz (y representada con la barra: / ) que contiene todas las demás carpetas o ficheros. Por su parte, MS-Windows dispone de una jerarquía incompleta. Cada dispositivo se denomina Unidad y se representa con una letra seguida de dos puntos (por ejemplo, el disco duro principal sería c: ) En cada dispositivo se agrupan las carpetas que contienen otras carpetas o ficheros. Nótese que en Unix la separación entre los nombres de carpetas es la barra de dividir, mientras que en MS-Windows es la barra invertida.

Cómo se guardan esas carpetas y ficheros en un dispositivo es tarea del Sistema de Archivos y hay un buen puñado de ellos. Para MS-Windows hay FAT y NTFS (aunque ahora trata de sacar otros para superar las limitaciones de ambos), mientras que otros sistemas disponen de ext, xfs, reiserfs, jfs, btrfs, zfs, y otros muchos.

Una anécdota: reiserfs es uno de los mejores sistemas de archivos en prestaciones cuando el sistema se compone de muchos ficheros relativamente pequeños. En su momento se desarrolló reiserfs4 para mejorar el desempeño en otros ambientes. Sin embargo, su popularidad descendió desde el momento en que su creador dio con los huesos en la cárcel por asesinar a su esposa. Si alguien pensaba que la informática era ajena a buena parte de las motivaciones (o simplemente de la estupidez) humanas, ésta es quizás la mejor prueba de que no es así.

Bien, si has llegado hasta aquí habrás pensado que para utilizar un dispositivo dado para almacenar ficheros, necesitas al menos dos drivers: el correspondiente al dispositivo de turno, y el correspondiente al sistema de archivos utilizado. Esa es justo la idea. Por otra parte, el Sistema de Archivos es a veces referido como Filesystem (Sistema de ficheros), aunque yo prefiero hablar en ese caso de Tipo de Sistema de Ficheros para evitar ambigüedades.

Básicamente, un Sistema de Archivos contiene información respecto a dónde se guarda fisicamente, en el dispositivo de turno, cada fichero (y atributos tales como su dueño, fecha de creación, etc.).  Eliminar un fichero consiste realmente en borrar esa entrada del Sistema de Archivos, por lo que en realidad no se borra nada, simplemente el sistema olvida dónde estaba tal fichero. Por ejemplo, FAT simplemente cambia la primera letra del nombre del fichero por un interrogante, aprovechando que para el sistema ése no será un nombre de fichero válido. La única forma de hacer que el contenido de un fichero deje de estar disponible es sobreescribirlo, guardando otra información exactamente en el mismo sitio. Incluso por curiosidades físicas en la mayor parte de dispositivos se puede recuperar el contenido de un fichero sobreescrito varias veces. Es laborioso y caro, pero posible.

domingo, 24 de marzo de 2013

Tu computadora y tú: hora de aprender (i)

El largo camino de miles de millas comienza con un solo paso.


Había pensado comenzar esta entrada con algo del estilo de "... Ahora, reinicia tu computador y...", y vaya, primeros problemas. Si lo haces inmediatamente, no leerás el resto de la entrada; vale, puedes imprimirlo... si tienes impresora (¡¡papel y tinta!!); o puede que estés viendo el blog desde un móvil de estos supermodernos... en fin, que sin pretenderlo he dado con el primer paradigma que quiero exponer: aunque sea cierto que cualquier tecnología avanzada (como establece la Tercera Ley de Clarke) es indistinguible de la magia, lo cierto es que la tecnología, por sí sola, no hace milagros.

En estas y otras entradas pretendo introducir la informática (real) en personas a las que interese este tema, pero que por una u otra razón no han aprendido. Esto sirve para aprovechar y redondear algunos artículos anteriores del blog, en especial los referidos a Internet.

El otro paradigma, y el que guiará todo lo dicho hoy, es
si bien es cierto que la informática para un usuario es fácil, también lo es que nadie nace aprendido.
Al igual que en cualquier otra disciplina, el resultado obtenido dependerá principalmente del tesón y esfuerzo dedicado a su aprendizaje. De hecho, los Hackers suelen verse reflejados en los grandes maestros de las artes o las ciencias. Es la dedicación, el entusiasmo y el inmenso trabajo durante mucho tiempo lo que te permite ser un maestro en tales disciplinas, y no podía ser menos para llegar a ser todo un hacker.

Mas no es el objetivo conseguir que el lector devenga hacker. Si quiere hacerlo, puede serguir los consejos al uso que dan ellos mismos.

El principio


Como para poder aprender cualquier cosa, debemos comenzar por amueblar nuestra cabeza. Y es que no hay disciplina cuyo dominio no implique el conocimiento de un buen número de conceptos e ideas.

En informática eso se resume en que el aprendiz debe de aspirar a entender cosas como el sistema numérico binario, un poco de arquitectura de computadores, alguna dosis de programación... y es donde el aprendiz inglés toma mucha ventaja sobre el español y otros (salvo, sorprendentemente, sobre los hindúes!). Los nombres tienen significado, y el aprendiz que domine inglés puede leer/escuchar un nombre y en su cerebro se formará ya la metáfora apropiada: una sencilla descripción del concepto técnico entonces será suficiente para su comprensión casi eterna.

Pensemos en un ejemplo muy básico y sencillo: el bit. En inglés, la palabra bit designa a un pedazo minúsculo, mínimo de algo. Aplicado a la informática, un bit es la unidad de información mínima, y se representa con un cero o con un uno. Es la base del sistema numérico binario (que sólo tiene esos dos números para combinar, a diferencia del decimal, por ejemplo, que tiene 10). Uno/Cero. Perfecto para representar lo mínimo que puedes saber de algo: verdadero/falso; sí/no. Que de paso es la base de nuestro sistema de lógica.

Piensa en ello un momento: ¿llueve? No importa si apenas cae un poquito de llovizna o te puedes ahogar en una tormenta tropical; tampoco importa si ha llovido o si parece muy probable que vaya a llover pronto. ¿Llueve? ¿ o no?

El sistema binario es muy curioso. ¿uno más uno? 10, por supuesto. ¿y uno por uno? uno, como era de esperar. De esta manera de contar diremos más cosas después.

Sigamos con otra palabra: word (palabra). Una palabra es un conjunto de letras, y una word es un conjunto de bits. La diferencia entre la palabra usual del lenguaje y la informática es que aquella puede tener una o varias letras, mientras que la palabra informática sólo tiene un número dado de bits. Y dicho número depende de la arquitectura del sistema informático de turno. Pueden ser 8, 16, 32, etc. Que recuerde, los PC modernos que utilizamos la mayoría de las personas hoy por hoy tienen palabras de 16 bits (y forman dobles, triples o cuádruples palabras). Pensad que la comunicación es a base de palabras, y veréis la misma metáfora que instintivamente ve un inglés al leer el vocablo informático word

En algunos libros de informática se hacen un lío con los bytes. Un byte es un grupo de 8 bits, que no es casualidad que sea una potencia de 2 (23, para ser más precisos). En algunos equipos un byte podría ser equivalente a una palabra, pero sólo en equipos de 8 bits.

El arte de contar



El sistema binario es la base de la informática. Usa dos símbolos (0 y 1) y tiene una serie de propiedades curiosas. Destaca el hecho de que sólo necesitas dos operaciones para poder hacer cualquier operación aritmética: el complemento (la capacidad de cambiar de un valor al opuesto) y la suma. Sí, en binario ¡las restas y divisiones no son más que sumas!!

En la wikipedia tratan bastante bien algunas cuestiones informáticas, y el artículo sobre el sistema binario tiene buena pinta. Leedlo y tratad de aprender algo sobre algo tan curioso. No dejéis de ver la curiosa y antigua historia de este sistema de numeración. También es curioso como las mismas propiedades del sistema binario fueron empleadas en otros tiempos, como este sistema de multiplicación del antiguo Egipto.

Breve historia de los computadores


En los textos informáticos se suele hablar de cuatro generaciones (y una quinta que sería la "moderna") para agrupar las características básicas de los computadores informáticos a lo largo de los últimos 60 años.

Hay cierto acuerdo de que el primer computador se desarrolló en la Segunda Guerra Mundial para descifrar el código de los mensajes alemanes; no obstante, la llamada "Primera Generación" (y con ella, el inicio del tiempo informático) la suele marcar la creación de ENIAC en 1941. A esta era de enormes computadores la sigue el desarrollo de los llamados lenguajes de "Alto Nivel" que marcan la llamada "Segunda Generación". En la Primera Generación, los computadores son programados en sistema binario o en ensamblador (un código nemotécnico para abreviar las instrucciones binarias).

En la década de 1950 se desarrollan los primeros lenguajes más próximos al lenguaje natural (inglés). Dichos lenguajes, como es de esperar, permiten simplificar la programación de los computadores. Esto lleva a desarrollar computadoras de propósito general. La generación concluye cuando IBM presenta la serie 360.

La "Segunda Generación" llega con el uso de los transistores. Esto hace que los nuevos computadores sean más baratos, rápidos y eficientes.

La "Tercera Generación" tiene como protagonista el desarrollo del circuito integrado, que acabará posibilitando los primeros microchips, que a su vez sientan las bases de los mucho después llamados "computadores personales".

El salto de la tercera generación a la cuarta está marcado por Unix. En esos tiempos, los computadores típicos son en realidad redes formadas por una potente máquina central a la que se conectan los usuarios desde otros computadores o bien desde terminales: los terminales constaban del equipamento mínimo para conectarse a una red que permitiese acceder al servidor donde el usuario tenía una cuenta de acceso.

Los microprocesadores permiten que los computadores personales rompan esa dependencia de un gran servidor central, posibilitando que cualquier usuario utilice un computador de forma aislada, ya fuese en su casa, en el trabajo, etc. Es la hora de la "Cuarta Generación": la era del "Computador Personal". En los tiempos actuales, tenemos un montón de computadoras personales (y otros dispositivos computadores: tabletas, smartphones,...) conectados entre sí a través de la "Red de Redes": InterNET.

Dicho esto, puede que un lector avisado haya pensado que el uso de un smartphone con sus applets que utilizan servicios de distintos proveedores a través de internet es curiosamente similar al de los antiguos terminales Unix. Bien, muy bien ;)

Cosas de la arquitectura


Un breve esbozo de la arquitectura de un computador tenderá a dejarse fuera un buen puñado de cosas. Pero eso no es excusa para tratar de formarse una imagen mental de cómo funciona un computador.

En un principio, tenemos un computador que se compone de una memoria (RAM), un procesador (microprocesador) que a su vez se compone de dos elementos (la Unidad de Control que como es de esperar controla a todo el sistema, y la Unidad Aritmético-Lógica, que se encarga de efectuar las operaciones aritméticas y lógicas que forman la base de la informática), y una serie de elementos denominados periféricos, que sirven para que el mundo se comunique con la memoria y el procesador: un teclado para escribir blogs, una pantalla para leer blogs, un ratón, una impresora, un disco duro donde guardar las cosas, un pendrive para llevarlas por ahí...

Esto se llama "Arquitectura Von-Newman" y forma la base del diseño de la práctica totalidad de los computadores de hoy en día. Lo más importante de la misma es comprender que la información que maneja cualquier computador debe de estar cargada previamente en la memoria principal del sistema. Aquí también hay libros que se lían mucho, por el hecho de que en un computador puede haber varios procesadores que se complementan entre sí, y muchos computadores pueden colaborar en un sistema único. En fin.

Cargada es de esos términos informáticos con un significado preciso: cargar algo es copiar ese algo en la memoria principal. De paso, en la jerga informática es frecuente utilizar la preposición a en lugar de en. Así, muchas veces se dirá "copiar algo a Memoria". En mi opinión, es una costumbre que pretende clarificar el sentido en el que se efectúa la acción cuando se efectúa un movimiento de información: copias algo del disco, copias algo al disco.

Los computadores modernos utilizan muchas memorias, aunque la Principal solo es una de ellas. La memoria de esta época es quizás la DDR SDRAM. Por supuesto, termina en RAM (Random Access Memory, que significa que acceder a cualquier parte de ella lleva lo mismo que acceder a cualquier otra parte). Después añadiré un matiz sobre las tarjetas de vídeo.

Otra memoria importante es la ROM. Esta es una memoria en la que el fabricante añade lo imprescindible (y a veces alguna cosa más) para arrancar un computador, o mejor dicho, para arrancar un Sistema Operativo. Hay muchos tipos: EEPROM, EFI... Incluso algunos computadores o smartphones pueden usar una memoria flash para esto.

El proceso de arranque de un computador es el que sigue: al encender, comienza a circular electricidad por el sistema: se ejecuta entonces lo alojado en la memoria ROM de turno, que suele consistir en un programa de comprobación del hardware mínimo y un sistema para ejecutar lo que quiera que se encuentre en el principio del disco duro (o del DVD, etc.). Los sistemas EFI/UEFI lo que hacen es cargar lo que exista en la partición EFI del disco duro de turno.

Este "lo que quiera" es alguna forma de "cargador de arranque", o sea, un programa que simplemente permite arrancar uno o varios Sistemas Operativos. Una instalación por defecto de Windows oculta este cargador, haciendo que el usuario crea que se carga directamente.

Del arranque se hablará en su momento de forma más extensa (se merece su propio artículo, o mejor dicho, varios de ellos :) ).

Queda por contar el matiz respecto a las tarjetas de vídeo. Un computador moderno utiliza varios elementos que por derecho propio consituyen a su vez otros computadores: constan de memoria y procesador. Los que se utilizan desde hace más tiempo son las llamadas "tarjetas de sonido" y "tarjetas de vídeo". En el caso de éstas, la tarea de mostrar vídeo es tan onerosa para el sistema que fueron incorporándose cada vez procesadores más potentes acompañados de cantidades cada vez mayores. A su vez, los procesadores fueron mejorando, tanto que pueden ser tan potentes como los procesadores estándar utilizados hace pocos años. Y en las gamas "altas", puede que incluso sean más potentes.

Y para finalizar la entrada: en el último párrafo utilizo la palabra procesador de forma deliverada, para asimilar su función dentro de la arquitectura de un computador. Sin embargo, el procesador de un computador personal suele denominarse "microprocesador", al ir integrado en un solo chip de tamaño reducido. A veces, el mundo de los computadores personales y portátiles es denominado por este motivo "microinformática".

Vale, no he prometido que no sería un rollo ;)

jueves, 21 de marzo de 2013

tiempo de openSUSE 12.3

La primavera viene este año precedida por la publicación de la versión 12.3 de openSUSE. Como era de esperar, ha faltado tiempo para actualizar tanto el computador portátil como el de escritorio. En el portátil tengo la versión "rolling", llamada Tumbleweed. Su actualización es más sencilla ya que está diseñada para ello. En el de escritorio, tengo la 12.3 actualizada desde la 12.2. He de reconocer que he tenido que insistirle un poco para que funcione de forma que enorgullezca a Monesvol, pero una vez acabado tampoco fue para tanto.

En un montón de blogs y en el wiki oficial puede encontrarse infinidad de información respecto tanto a la instalación como a la actualización desde una versión anterior. También cómo hacerlo desde Tumbleweed (cosa que debería haber hecho antes de comenzar y me habría ahorrado un poquito de tiempo). También se añade un montón de capturas y comentarios respecto al "artwork" que acompaña a esta versión. De hecho, en el de escritorio he sustituido el estilo del escritorio por el nuevo. Pero en el portátil he mantenido el mío. Ahí va una imagen:


No impresiona mucho, por supuesto. Tengo un plasmoide (un widget que ahora están tan de moda) para mostrar alguna información del sistema, como temperatura, memoria en uso, y así; y otro plasmoide para mostrar el contenido de la carpeta "Escritorio", que en mi caso contiene unos cuantos accesos directos. He cambiado el plasmoide de las notificaciones, ya que las nuevas se veían algo mal, así que lo he sacado de la bandeja de sistema y lo he puesto justo encima (esa gran "I"), lo que además queda bien con el botoncito para ver otras aplicacioncillas de la bandeja de sistema.

En el panel, arriba a la izquierda, está el "paginador", que permite cambiar entre los distintos escritorios virtuales (esos cuatro cuadritos). Si uno se fija, puede ver que en el de arriba a la derecha se ve un recuadro más pequeño: es la ventana de este navegador!!

La barra de tareas del escritorio del portátil prefiero tenerla a la izquierda, ya que así la ventana de cualquier aplicación puede ocupar la pantalla de arriba a abajo sin tener que ocultarla. Y me parece práctico tenerla así siempre accesible.

Y no podía faltar el inevitable "widget" con la previsión meteorológica, y sí, dice que llueve; y sí, miente como un bellaco, pero no es culpa suya, en el aemet dicen lo mismo.

Eso en cuanto a la actividad principal, que es juguetear y probar cosas, además de navegar y ver el correo-e. Tengo otra actividad que uso menos, que pretende facilitar el uso de archivos multimedia. La uso tan poco que aun le faltan muchas cosillas útiles, aunque sí tiene una configuración diferente para el ahorro de energía.
En esta actividad ahora mismo tengo un plasmoide para visualizar mi carpeta de vídeos y otro para controlar el reproductor Amarok. He dejado, por ahora al menos, el fondo que provee la distribución por defecto.

No tiene mucho más, por ahora. Ah!! el tiempo!! Eso sí, tengo un montón de software instalado: unos 11GiB (aunque eso a los usuarios del maligno no los impresiona, ya que su sistema sin hacer nada ocupa al menos 20!). Si bien tengo el software habitual que provee la distribución, además he instalado Calligra, para probarla, así como OpenERP, un ERP abierto que funciona con postgresql. Además, naturalmente, de un buen puñado de cosas que me pareció buena idea instalar en su momento, pero para el que no tengo tiempo.