LICENCIATURA EN INFORMATICA

OBJETIVO DE LA CARRERA

Analizar, diseñar, implantar, evaluar, mantener y mejorar sistemas de información.
Diagnosticar y proponer opciones de solución a los problemas informáticos en las organizaciones sociales.

Tomar decisiones en relación con el uso y acopio de la infraestructura informática.
Generar modelos que pronostiquen el comportamiento de las organizaciones bajo situaciones específicas.

PERFIL PROFESIONAL

El licenciado en informática será capaz de:

· Desarrollar e implantar sistemas de información en respuesta a los requerimientos de las organizaciones.

· Aplicar metodologías idóneas para resolver problemas en el procedimiento y flujo de la información.

· Evaluar y aplicar, técnicas y conceptos novedosos para el desarrollo de sistemas de información.

· Diferenciar el alcance local, nacional, regional y global de la información entre las organizaciones.

· Aplicar procesos de mejora continua en el diseño y operación de los sistemas de información.

· Diseño y aplicación de modelos de computación aplicados a la resolución de problemas administrativos.

· CAMPO DE TRABAJO

· El egresado puede laborar en empresas públicas, privadas e independientes que requieran profesionales en esta área.

· Administración de centros de informática,

· Asesoría y elaboración de estudios, de evaluación de la función de informática

· Dirección de proyectos de informática

· Realización de actividades de enlace entra las áreas funcionales de la organización y el departamento de informática.

· CARACTERISTICAS DESEABLES

· Adaptación a los avances tecnológicos y cambios socio-economico a nivel Nacional e internacional.

· Manejar sistemas de computo para el procesamiento de la información.
Habilidad para establecer relaciones interpersonales, responsabilidad y disciplina metódica.
Desarrollar con creatividad su ejercicio profesional y los conocimientos teóricos adquiridos.

BLUETOOTH

Bluetooth es la norma que define un estandar global de comunicación inalambrica que posibilita la transmisión de voz y datos entre diferentes equipos mediante un enlace por radiofrecuencia. Los principales objetivos que se pretende conseguir con esta norma son:

  • Facilitar las comunicaciones entre equipos móviles y fijos.
  • Eliminar cables y conectores entre éstos.
  • Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre nuestros equipos personales.
La tecnología Bluetooth comprende hardware, software y requerimientos de interoperactividad, por lo que para su desarrollo ha sido necesaria la participación de los principales fabricantes de los sectores de las telecomunicaciones y la informatica, tales como: Ericsson, Nokia, Motorola, Toshiba, IBM e Intel, entre otros. Posteriormente se han ido incorporando muchas más compañías, y se prevé que próximamente lo hagan también empresas de sectores tan variados como automatización industrial, maquinaria, ocio y entretenimiento, fabricantes de juguetes, electrodomésticos, etc., con lo que en poco tiempo se nos presentará un panorama de total conectividad de nuestros aparatos tanto en casa como en el trabajo.

El nombre procede del rey danés y noruego Harald Blåtand cuya traducción al inglés sería Harold Bluetooth (Diente Azul, aunque en lengua danesa significa 'de tez oscura') conocido por unificar las tribus noruegas, suecas y danesas.

De la misma manera, Bluetooth intenta unir diferentes tecnologías como las de los ordenadores, los teléfonos móviles y el resto de periféricos. El símbolo de Bluetooth es la unión de las runas nórdicas H y B.

En 1994, Ericsson inició un estudio para investigar la viabilidad de una nueva interfaz de bajo costo y consumo para la interconexión vía radio (eliminando así cables) entre dispositivos como teléfonos móviles y otros accesorios. El estudio partía de un largo proyecto que investigaba unos multicomunicadores conectados a una red celular, hasta que se llegó a un enlace de radio de corto alcance, llamado MC link. Conforme este proyecto avanzaba se fue haciendo claro que éste tipo de enlace podía ser utilizado ampliamente en un gran número de aplicaciones, ya que tenía como principal virtud que se basaba en un chip de radio.

Bluetooth proporciona una vía de interconexión inalámbrica entre diversos aparatos que tengan dentro de sí esta tecnología, como móviles (Nokia 6600), consolas (Nokia N-Gage), dispositivos PDA, cámaras digitales, computadoras portátiles, impresoras, o simplemente cualquier dispositivo que un fabricante considere oportuno, usando siempre una conexión segura de radio de muy corto alcance. El alcance que logran tener estos dispositivos es de 1000 metros para ahorrar energía ya que generalmente estos dispositivos utilizan mayoritariamente baterías. Sin embargo, se puede llegar a un alcance de hasta 100 metros (similar a Wi-Fi) pero aumentando el consumo energético considerablemente. Para mejorar la comunicación es recomendable que nada físico como por ejemplo una pared se interponga.

El primer objetivo para los productos Bluetooth de primera generación eran los entornos de la gente de negocios que viaja frecuentemente. Esto originaba una serie de cuestiones previas que deberían solucionarse tales como:

  • El sistema debería operar en todo el mundo.
  • El emisor de radio deberá consumir poca energía, ya que debe integrarse en equipos alimentados por baterías.
  • La conexión deberá soportar voz y datos, y por lo tanto aplicaciones multimedia.
  • La tecnología debería tener un bajo costo. Como objetivo se quiso alcanzar los 5 US$ por dispositivo.
  • Muchos celulares han adquirido esta característica que por lo general es un gran avance.

La especificación de Bluetooth define un canal de comunicación de máximo 720 kb/s (1 Mbps de capacidad bruta) con rango óptimo de 10 metros (opcionalmente 100 m con repetidores).

La frecuencia de radio con la que trabaja está en el rango de 2,4 a 2,48 GHz con amplio espectro y saltos de frecuencia con posibilidad de transmitir en Full Duplex con un máximo de 1600 saltos/s. Los saltos de frecuencia se dan entre un total de 79 frecuencias con intervalos de 1Mhz; esto permite dar seguridad y robustez.

La potencia de salida para transmitir a una distancia máxima de 10 metros es de 0 dBm (1 mW), mientras que la versión de largo alcance transmite entre 20 y 30 dBm (entre 100 mW y 1 W).

Para lograr alcanzar el objetivo de bajo consumo y bajo costo, se ideó una solución que se puede implementar en un solo chip utilizando circuitos CMOS. De esta manera, se logró crear una solución de 9x9 mm y que consume aproximadamente 97% menos energía que un teléfono celular común.

El protocolo de banda base (canales simples por línea) combina conmutación de circuitos y paquetes. Para asegurar que los paquetes no lleguen fuera de orden, los slots pueden ser reservados por paquetes síncronos, un salto diferente de señal es usado para cada paquete. Por otro lado, la conmutación de circuitos puede ser asíncrona o síncrona. Tres canales de datos síncronos (voz), o un canal de datos síncrono y uno asíncrono, pueden ser soportados en un solo canal. Cada canal de voz puede soportar una tasa de transferencia de 64 kb/s en cada sentido, la cual es suficientemente adecuada para la transmisión de voz. Un canal asíncrono puede transmitir como mucho 721 kb/s en una dirección y 56 kb/s en la dirección opuesta, sin embargo, para una conexión asíncrona es posible soportar 432,6 kb/s en ambas direcciones si el enlace es simétrico.

El hardware que compone el dispositivo Bluetooth esta compuesto por dos partes:

  • un dispositivo de radio, encargado de modular y transmitir la señal
  • un controlador digital, compuesto por una CPU, por un procesador de señales digitales (DSP - Digital Signal Processor) llamado Link Controller (o controlador de Enlace) y de los interfaces con el dispositivo anfitrión.

El LC o Link Controller está encargado de hacer el procesamiento de la banda base y del manejo de los protocolos ARQ y FEC de capa física. Además, se encarga de las funciones de transferencia (tanto asíncrona como síncrona), codificación de Audio y encriptación de datos.

El CPU del dispositivo se encarga de atender las instrucciones relacionadas con Bluetooth del dispositivo anfitrión, para así simplificar su operación. Para ello, sobre el CPU corre un software denominado Link Manager que tiene la función de comunicarse con otros dispositivos por medio del protocolo LMP.

Entre las tareas realizadas por el LC y el Link Manager, destacan las siguientes: - Envío y Recepción de Datos. - Empaginamiento y Peticiones. - Determinación de Conexiones. - Autenticación. - Negociación y determinación de tipos de enlace. - Determinación del tipo de cuerpo de cada paquete1. - Ubicación del dispositivo en modo sniff o hold.

La versión 1.2, a diferencia de la 1.1, provee una solución inalámbrica complementaria para co-existir bluetooth y Wi-Fi en el espectro de los 2.4 GHz, sin interferencia entre ellos.

La versión 1.2 usa la técnica "Adaptive Frequency Hopping (AFH)", que ejecuta una transmisión más eficiente y una encriptación más segura. Para mejorar las experiencias de los usuarios, la V1.2 ofrece una calidad de voz (Voice Quality - Enhanced Voice Procesing) con menor ruido ambiental, y provee una más rápida configuración de la comunicación con los otros dispositivos bluetooth dentro del rango del alcance, como pueden ser PDAs, HIDs (Human Interface Devices), ordenadores portátiles, ordenadores de sobremesa, Headsets, impresoras y celulares.

La versión 2.0, creada para ser una especificación separada, principalmente incorpora la técnica "Enhanced Data Rate" (EDR) que le permite mejorar las velocidades de transmisión en hasta 3Mbps a la vez que intenta solucionar algunos errores de la especificación 1.2.

  • Conexión sin cables entre los celulares y equipos de manos libres y kit para autos.
  • Red inalámbrica en espacios reducidos donde no sea tan importante un gran ancho de banda.
  • Comunicación sin cables entre la PC y dispositivos de entrada y salida. Mayormente impresora, teclado y mouse.
  • Transferencia de ficheros entre dispositivos vía OBEX.
  • Transferencia de fichas de contactos, citas y recordatorios entre dispositivos vía OBEX.
  • Reemplazo de la tradicional comunicación por cable entre equipos GPS y equipamiento médico.
  • Controles remotos (tradicionalmente dominado por el infrarrojo)
  • Enviar pequeñas publicidades entre anunciantes y dispositivos con bluetooth. Un negocio podría enviar publicidad a celulares / teléfonos móviles con bluetooth activado al pasar cerca.
  • Las consolas Sony Playstation 3 y Nintendo Wii traen bluetooth para utilizar mandos inalámbricos.

La tecnología de Bluetooth te permite conectar todos tus periférico de la oficina vía inalámbrica. Conectar tu PC o notebook con las impresoras, los scanners y los faxes sin preocuparse por los cables. Puedes aumentar tu libertad conectando tu ratón o el teclado vía inalámbrica con tu computadora. Si tus cámaras fotográficas digitales poseen Bluetooth, puedes enviar imágenes de video de cualquier localización a cualquier localización sin la molestia de conectar tu cámara fotográfica con el teléfono móvil. Bluetooth permite que tengamos teléfonos de tres vías. Cuando estás en movimiento, funciona como un teléfono móvil (uso de red celular). Y cuando tu teléfono entra en el rango de otro teléfono móvil con Bluetooth funciona como una radio (hablar entre celulares sin usar la red de telefonía móvil).

La clasificación de los dispositivos bluetooth como "Clase 1", "Clase 2" o "Clase 3" es únicamente una referencia de la potencia de trasmisión del dispositivo, siendo totalmente compatibles los dispositivos de una clase con los de la otra.

Los dispositivos de Clase 1 se definen como con un alcance de 100 metros, mientras que los de Clase 2 llega a los 20/30 metros, y los de Clase 3 a un metro aproximadamente. Si un dispositivo de clase 1 desea conectarse con uno de clase 2, deberán colocarse la distancia del alcance del de clase 2, ya que por más que el otro sea clase 1, debe ponerse a la distancia donde llega el de clase 2.

Cabe aquí aclarar que las distancias que indican las especificaciones son medidas tomando punto a punto dos dispositivos de la misma clase, instalados a campo abierto, sin ninguna interferencia. La realidad es que en instalaciones normales en interiores de edificios, la distancia oscila entre 5 y 25 metros, según las condiciones ambientales.

Además, existen ciertos dispositivos en los que la señal se amplifica hasta un nivel en teoría por encima del máximo permitido por la tecnología. Así, es fácil encontrar a la venta adaptadores USB Bluetooth con un alcance de 150 metros, que son considerados de Clase 1. Por otro lado, mediante técnicas como Bluetooone o Bluesniping se logra, mediante antenas más potentes y/o direccionales, obtener alcances de entre uno y dos kilómetros.

Wi-Fi

Wi-Fi (o Wi-fi, WiFi, Wifi, wifi) es un conjunto de estándares para redes inalámbricas basados en las especificaciones IEEE 802.11.

Wi-Fi se creó para ser utilizada en redes locales inalámbricas, pero es frecuente que en la actualidad también se utilice para acceder a Internet.

Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la Wireless Ethernet Compatibility Alliance), la organización comercial que prueba y certifica que los equipos cumplen los estándares IEEE 802.11x.

Hay al menos dos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11.

  • Los estándares IEEE 802.11b e IEEE 802.11g que disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente. Existe también el estándar IEEE 802.11n que trabaja a 2.4 GHz a una velocidad de 108 Mbps. Aunque estas velocidades de 108 Mbps son capaces de alcanzarse ya con el estandar 802.11g gracias a técnicas de aceleramiento que consiguen duplicar la transferencia teórica. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N, sin embargo, no son del todo seguros ya que el estándar no está completamente revisado y aprobado.
  • En los Estados Unidos y Japón, se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. En otras zonas, como la Unión Europea, 802.11a no está aprobado todavía para operar en la banda de 5 GHz, y los reguladores europeos están todavía considerando el uso del estándar europeo HIPERLAN...

La tecnología inalámbrica Bluetooth también funciona a una frecuencia de 2.4 GHz por lo que puede presentar interferencias con Wi-Fi, sin embargo, en la versión 1.2 y mayores del estándar Bluetooth se ha actualizado su especificación para que no haya interferencias en la utilización simultánea de ambas tecnologías.

Algunos argumentan que Wi-Fi y las tecnologías de consumo relacionadas son la clave para reemplazar a las redes de telefonía móvil como GSM. Algunos obstáculos para que esto ocurra en el futuro próximo son la pérdida del roaming, la autenticación más precaria y la estrechez del espectro disponible.

A pesar de dichos problemas, compañías como SocketIP y Symbol Technologies están ofreciendo plataformas telefónicas (reemplazos de centrales y terminales) que utilizan el transporte Wi-Fi.

Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la seguridad. Un muy elevado porcentaje de redes son instaladas por administradores de sistemas y redes por su simplicidad de implementación sin tener en consideración la seguridad y, por tanto, convirtiendo sus redes en redes abiertas, sin proteger la información que por ellas circulan. Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de protocolos de seguridad de datos específicos para los protocolos Wi-Fi como el WEP y el WPA que se encargan de autenticación, integridad y confidencialidad, proporcionados por los propios dispositivos inalámbricos, o IPSEC (túneles IP) y el conjunto de protocolos IEEE 802.1X, proporcionados por otros dispositivos de la red de datos y de reconocida eficacia a lo largo de años de experiencia. Actualmente existe el protocolo de seguridad llamado WPA2, que es una mejora relativa a WPA, es el mejor protocolo de seguridad para Wi-Fi en este momento. Para su utilización en PCs con Windows XP se requiere el Service Pack 2 y una actualización adicional.

REDES INALAMBRICAS

Actualmente el término se refiere a comunicación sin cables, usando frecuencias de radio u ondas infrarrojas. Entre los usos más comunes se incluyen a IrDA y las redes inalámbricas de computadoras. Ondas de radio de bajo poder, como los que se emplean para transmitir información entre dispositivos, normalmente no tienen regulación, en cambio, transmisiones de alto poder requieren un permiso del estado para poder trasmitir en una frecuencia específica.

Es una red en la cual los medios de comunicación entre sus componentes son ondas electromagnéticas.

Sus principales ventajas son que permiten una amplia libertad de movimientos, facilita la reubicación de las estaciones de trabajo evitando la necesidad de establecer cableado y la rapidez en la instalación, sumado a menores costos que permiten una mejor inserción en economías reducidas.

Algunas de las técnicas utilizadas en las redes inalámbricas son: infrarrojos, microondas, láser y radio.

Existen varias tecnologías de transmisión inalámbrica pero la más conocida es la WIFI, publicada bajo el standard 802.11, ésta ha variado a lo largo de los tiempos pues como todo en el mundo tecnológico, se han producido varios cambios o actualizaciones, como por ejemplo: 802.11a, 802.11b, 802.11g las cuales trabajan a diferentes velocidades:

802.11 = 1Mb

802.11a = 54 Mb (Ésta trabaja a una frecuencia en el rango de los 5GHz)

802.11b = 11Mb (Trabaja a 2,4 GHz. Conserva compatibilidad con el Standard Nativo 802.11, de 1Mb)

802.11g = 54 Mb (Trabaja a 2,4 GHz. Puede alcanzar los 108 Mb con dispositivos del mismo fabricante, siempre que se den las condiciones óptimas y sólo si el fabricante hizo la adaptación).

ANTIVIRUS

Los antivirus son programas cuya función es detectar y eliminar virus informáticos y otros programas maliciosos.

Básicamente, un antivirus compara el código de cada archivo con una base de datos de los códigos (también conocidos como firmas o vacunas) de los virus conocidos, por lo que es importante actualizarla periódicamente a fin de evitar que un virus nuevo no sea detectado. También se les ha agregado funciones avanzadas, como la búsqueda de comportamientos típicos de virus (técnica conocida como Heurística) o la verificación contra virus en redes de computadores.

Normalmente un antivirus tiene un componente que se carga en memoria y permanece en ella para verificar todos los archivos abiertos, creados, modificados y ejecutados en tiempo real. Es muy común que tengan componentes que revisen los adjuntos de los correos electrónicos salientes y entrantes, así como los scripts y programas que pueden ejecutarse en un navegador web (ActiveX, Java, JavaScript).

Los virus, gusanos, spyware, etc son programas informáticos que se ejecutan normalmente sin el consentimiento del legítimo propietario y que tienen la características de ejecutar recursos, consumir memoria e incluso eliminar o destrozar la información.

Una característica adicional es la capacidad que tienen de propagarse. Otras características son el robo de información, la pérdida de esta, la capacidad de suplantación, que hacen que reviertan en pérdidas económicas y de imagen.

Antivirus (activo)

Estos programas como se ha mencionado tratan de encontrar la traza de los programas maliciosos mientras el sistema está funcionando.

Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de infección y notificando al usuario de posibles incidencias de seguridad.

Como programa que está continuamente funcionando, el antivirus tiene un efecto adverso sobre el sistema en funcionamiento. Una parte importante de los recursos se destinan al funcionamiento del mismo. Además dado que están continuamente comprobando la memoria de la máquina, dar más memoria al sistema no mejora las prestaciones del mismo.

Otro efecto adverso son los falsos positivos, es decir al notificar al usuario de posibles incidencias en la seguridad, éste que normalmente no es un experto de seguridad se acostumbra a dar al botón de autorizar a todas las acciones que le notifica el sistema. De esta forma el antivirus funcionando da una sensación de falsa seguridad

Filtros de ficheros (activo)

Otra aproximación es la de generar filtros dentro de la red que proporcionen un filtrado más selectivo. Desde el sistema de correos, hasta el empleo de técnicas de firewall, proporcionan un método activo y eficaz de eliminar estos contenidos.

En general este sistema proporciona una seguridad donde el usuario no requiere de intervención, puede ser más tajante, y permitir emplear únicamente recursos de forma más selectiva.

Cuando el número de puestos a filtrar crece puede ser conveniente

Copias de seguridad (pasivo)

Mantener una política férrea de copias de seguridad garantizan la recuperación de los datos y la respuesta cuando nada de lo anterior ha funcionado.

Asimismo las empresas deberían disponer de un plan y detalle de todo el software instalado para tener un plan de contingencia en caso de problemas.

Es conveniente disponer de una licencia activa de antivirus. Dicha licencia se empleará para la generación de discos de recuperación y emergencia. Sin embargo no se recomienda en una red el uso continuo de antivirus.

El motivo radica en la cantidad de recursos que dichos programa obtienen del sistema, reduciendo el valor de las inversiones en hardware realizadas.

Aunque si los recursos son suficientes. Este extra de seguridad puede ser muy útil.

Sin embargo los filtros de correos con detectores de virus son imprescindibles, ya que de esta forma se asegurará una reducción importante de decisiones de usuarios no entrenados que pueden poner en riesgo la red.

Firewalls

Filtrar contenidos y puntos de acceso. Eliminar programas P2P que no estén relacionados con la actividad. Tener monitorizado los accesos de los usuarios a la red, permite asimismo reducir la instalación de software que no es necesario o que puede generar riesgo para la continuidad del negocio.

RECUPERACION DE DISCOS DUROS

Puede que existan pocas cosas tan desagradables como la de tener la sensación de que has perdido toda la información que guardabas en tu ordenador… Si es eso lo que sientes en este momento, tranquilízate, respira, la información sigue ahí y lo más probable es que puedas recuperarla.

Los informáticos que a veces son un poco insensibles con la ignorancia ajena, son capaces de hacerte la peor de las preguntas en el momento más inoportuno, en este caso la pregunta del millón es “¿Tienes copia de seguridad?”… “¡Por supuesto que no tengo copia de seguridad, si la tuviera no estaría aquí mirándote como si fueras mi última salvación!”. Todos sabemos que hay que hacer copias de seguridad, algunos incluso al principio somos muy metódicos y disciplinados con esta tarea, pero terminamos olvidándonos y con acuerdo a la omnipresente Ley de Murphy:
“nuestra última copia de seguridad será lo suficientemente antigua como para no sernos de utilidad”.

Los discos duros no suelen fallar, no obstante cuando lo hacen es traumático. Otros componentes como las fuentes de alimentación o incluso las tarjetas gráficas fallan con mayor frecuencia, pero basta con comprar una nueva y remplazar la anterior, el fallo queda ahí y todo vuelve a funcionar.

En esto de la recuperación de datos hay una ley que se tiene que seguir a raja tabla, y es la siguiente: Si la información que guardas es importante, si no sabes exactamente lo que estas haciendo, no lo hagas. En la mayoría de los casos la causa de que el disco haya dejado de funcionar no suele ser la causa de la perdida de datos. Es decir, el mayor peligro de tus datos normalmente eres tú, más concretamente las cosas que tú hacer en tu frenesí por intentar recuperar lo perdido.

Todas las actuaciones que describimos en este artículo son inocuas, no van a empeorar la situación de tu disco y te servirán para evaluar el daño que éste ha sufrido.
Evaluando el Fallo de tu Disco Duro

Lo primero que debemos intentar averiguar es si nuestro disco duro ha sufrido un fallo lógico o un fallo físico.

Fallo Lógico en el Disco Duro

Básicamente en un fallo lógico se deteriora la información, no el dispositivo que la contiene. Lo más frecuente es que nos haya fallado el sistema operativo, especialmente si se trata de un Windows 95, 98, Me… Ésta rama de los sistemas operativos de Microsoft es famosa por su inestabilidad, son sistemas operativos que se corrompen con relativa facilidad, sobre todo si eres de los que se instalan en el ordenador todo lo que les pasa por las manos. La rama de sistemas operativos NT Workstation, Windows 2000, Windows XP es bastante mejor (aunque visualmente parezcan iguales, su corazón, el llamado kernel del sistema operativo es radicalmente distinto).

Si tu disco es reconocido por el ordenador, hace el intento de cargar el sistema operativo y es en ese paso en el que se queda, lo más probable es que tu sistema operativo esté corrupto o haya sido infectado por un virus que lo ha deteriorado. La información está dentro, pero no podrás utilizar el sistema operativo que tienes instalado para visualizarla.

Podemos reparar el sistema operativo, reinstalarlo u optar por una instalación desde cero. Ahora bien como nos interesa conservar la información que hay en su interior, sería conveniente comprar un nuevo disco duro, instalarlo en nuestra CPU como disco duro primario o master y en él instalar de nuevo el sistema operativo, para posteriormente intentar acceder al disco duro corrupto, que habremos dejado como secundario o slave y volcarnos los documentos que deseamos conservar. Este es el modo más seguro de hacerlo.
Otros fallos lógicos…

Otros fallos lógicos no son tan sencillos de salvar. Una manera inocua de saber si tu ordenador tiene un fallo lógico de mayor alcance, es arrancar el ordenador desde la unidad A: (disquette). Nuestro sistema operativo nos permite crear discos de arranque en MS-DOS y siempre es conveniente tener uno, si no lo tienes pídele a alguien que te deje uno preferentemente creado con un sistema operativo igual al tuyo.

El objeto de esto es ver si podemos listar los archivos de nuestro disco duro corrupto. Al arrancar con un disquete veremos la pantalla en negro y un A:\>, estamos por tanto en la unidad A -la del disquete- intentaremos pasar a la unidad del disco duro para ello escribiremos “C:” y pulsaremos “Enter”.

Si recibimos el mensaje “El dispositivo no esta listo”… malo. Eso quiere decir que no ha encontrado el disco duro. Si este mensaje no aparece, ahora deberemos ver C:\>. Ahora intentaremos listar el contenido del disco duro, para ello escribiremos “DIR” y de nuevo “Enter”, deberías ver el contenido de tu disco duro, y utilizando algunos otros comandos de MS-DOS podrás pasar tus preciosos documentos a un disquete (y decían que nunca volverías a utilizar msdos...) .

Si no ves el contenido de tu disco duro o recibes un mensaje de error, malo. No queremos decir con esto que tu información se haya perdido, la información sigue ahí, pero no va a ser tan sencillo recuperarla. También puede ocurrir que puedas listar el disco duro pero haya partes que archivos aun viéndolos al intentar ejecutarlos recibimos mensajes de error del tipo “El archivo esta dañado o corrupto”.

Existen una multitud de programas que nos permiten recuperar archivos que hemos borrado por error, se encuentran corruptos o dañados, inclusive si la tabla de particiones está mal, corrupta, o no existe. Navegando por Internet encontraremos una amplia gama en distintos precios. Si utilizas el sistema de archivos FAT32, encontraras algunos gratuitos. Cuando trabajas con Windows NT, 2000 o XP, lo normal es que el sistema de archivos que estes utilizando sea NTFS. No he encontrado ningún programa gratuito para NTFS, aunque no son muy caros. En ocasiones la utilización de este tipo de programas dificulta el trabajo de las empresas que recuperan datos de los discos duros .

Si el fallo de nuestro disco duro es lógico, pero por nuestros métodos rudimentarios no conseguimos ni tener acceso a él, entonces seguiremos tendremos que acudir a unaempresa de recuperación de datos.
Fallos Físicos en el Disco DuroUna sobre tensión, una fuente de alimentación en mal estado o el desgaste de las piezas internas del disco por el uso, puede provocar un fallo físico en el Disco Duro. A veces puede ser algo de la noche a la mañana, pero normalmente al colapso le suelen preceder algunos achaques: comienza a hacer ruido, o comienza a arrancar una vez si y otra no.
Si la información de nuestro disco es importante y comenzamos a ver que no está funcionando correctamente, es el momento de comprarnos un disco duro nuevo y llevar a cabo el proceso que se descirbió anteriormente para los Sistemas Operativos que se han corrompido.

Si no hemos hecho esto o el fallo ha sido fulminante, nosotros no tenemos manera de arreglar el problema sin ayuda de una empresa. Aquí es muy importante estar “quietecitos”, si has intentado arrancar el ordenador cinco veces y sólo has recibido como respuesta un “sonido renqueante”, no insistas más, si estamos ante un fallo en los cabezales “head-crash”, con cada arranque fallido puede que las cabezas lectoras estén arañando un poco más la superficie del disco… y esto si que no tiene arreglo.

Un disco duro es bastante parecido a un tocadiscos, pero con varias capas de platos
Hay fallos electrónicos, fallos de motor, fallos en las cabezas lectoras… el caso es que los expertos tendrán que abrir el disco y ver lo que le pasa, nosotros no podemos hacer nada.
Acudiendo a una empresa de Recuperación de Datos

En ciertas ocasiones he tenido que contactar con un buen número de estas empresas, para comparar precios y plazos de entrega. Dado que los fallos como hemos visto pueden ser de muy diferente índole éstas empresas no suelen pillarse los dedos con los presupuestos, de tal manera que utilizan amplias orquillas de precios. Aun así a esto le llaman “presupuesto cerrado”, creo que todos coincidiremos en que el que te digan que una recuperación te puede constar de 250 a 1000 Euros, no es un presupuesto cerrado.
A la mayoría de nosotros el tiempo no nos es determinante, podemos esperar perfectamente una semana sin disponer de los datos, siempre y cuando al final los recuperemos. Un servicio ultrarrápido en 24 horas de respuesta puede hacer que el presupuesto aumente muchísimo.
Es importante tener a mano la siguiente información antes de hablar con estas empresas:
- Fabricante y modelo de nuestro disco duro
- Capacidad total del disco duro.
- Cantidad aproximada de datos que queremos recuperar.
- Número de particiones.
- Sistema Operativo que teníamos instalado
- Sistema de Archivos con el que estaba formateado el disco.

Para tener todos estos datos, normalmente tendremos que sacar el disco duro de la CPU, que es muy sencillo, y al fin y al cabo antes o después lo vamos a tener que hacer ya que tenemos que enviar el disco duro a alguna de estas empresas. Si no lo enviamos nosotros, vendrán ellos a recogerlo con el consiguiente incremento en el presupuesto.
Terminamos con una recomendación...

Los Pen-Drive USB son ahora muy económicos, puedes conseguir uno de 512 Mb o hasta de 1Gb por un precio muy atractivo. Se conectan al puerto USB y son como una unidad más de disco. Utilízalos para hacer tus copias de seguridad y ten en cuenta que si por ejemplo hay un incendio en tu oficina te alegrarás de tener una copia de tus archivos en tu casa o en un caja fuerte ignífuga.

TIPOS DE MEMORIAS

Memorias de sólo lectura

1. ROM: se usan principalmente en microprogramación de sistemas. Los fabricantes las suelen emplear cuando producen componentes de forma masiva.
ROM es el acrónimo de Read-Only Memory (memoria de sólo lectura). Es una memoria de semiconductor no destructible, es decir, que no se puede escribir sobre ella, y que conserva intacta la información almacenada, incluso en el caso de interrupción de corriente (memoria novolatil). La ROM suele almacenar la configuración del sistema o el programa de arranque del ordenador.

La memoria de sólo lectura o ROM es utilizada como medio de almacenamiento de datos en las computadoras. Debido a que no se puede escribir fácilmente, su uso principal reside en la distribución de programas que están estrechamente ligados al soporte físico del ordenador, y que seguramente no necesitarán actualización. Por ejemplo, una tarjta grafica puede realizar algunas funciones básicas a través de los programas contenidos en la ROM.

2. PROM: (Programmable Read Only Memory): El proceso de escritura es eléctrico. Se puede grabar posteriormente a la fabricación del chip, a diferencia de las anteriores que se graba durante la fabricación. Permite una única grabación y es más cara que la ROM.
PROM es el acronimo de Programmable Read-Only Memory (ROM programable). Es una memoria digital donde el valor de cada bit depende del estado de un fusible (o antifusible), que puede ser quemado una sola vez. Por esto la memoria puede ser programada (pueden ser escritos los datos) una sola vez a través de un dispositivo especial, un programador PROM. Estas memorias son utilizadas para grabar datos permanentes en cantidades menores a las ROMs, o cuando los datos deben cambiar en muchos o todos los casos.

2. Memorias de sobre todo lectura

1.EPROM (Erasable Programmable Read Only Memory): Se puede escribir varias veces de forma eléctrica, sin embargo, el borrado de los contenidos es completo y a través de la exposición a rayos ultravioletas (de esto que suelen tener una pequeña ‘ventanita’ en el chip).
EPROM son las siglas de Erasable Programmable Read-Only Memory (ROM borrable programable). Es un tipo de chip de memoria ROM inventado por el ingeniero Dov Fhroman que retiene los datos cuando la fuente de energía se apaga. En otras palabras, es no valatil. Está formada por celdas de FAMOS (Floating Gate Avalanche-Injection Metal-Oxide Semiconductor) o transistores de puerta flotante. Cada uno de ellos viene de fábrica sin carga, por lo que es leído como un 1 (por eso una EPROM sin grabar se lee como FF en todas sus celdas). Se programan mediante un dispositivo electrónico que proporciona voltajas superiores a los normalmente utilizados en los circuitos electrónicos. Las celdas que reciben carga se leen entonces como un 0. Una vez programada, una EPROM se puede borrar solamente mediante exposición a una fuerte luz ultravioleta. Esto es debido a que los fotoner de la luz excitan a los electrones de las celdas provocando que se descarguen. Las EPROMs se reconocen fácilmente por una ventana transparente en la parte alta del encapsulado, a través de la cual se ver el chip de silicio y que admite la luz ultravioleta durante el borrado.

2. EEPROM (Electrically Erasable Programmable Read Only Memory): Se puede borrar selectivamente byte a byte con corriente eléctrica. Es más cara que la EPROM.
EEPROM son las siglas de electrically-erasable programmable read-only memory (ROM programable y borrable eléctricamente), en español o castellano se suele referir al hablar como E-2-PROM y en inglés "E-Squared-PROM". Es un tipo de memoria ROM que puede ser programado, borrado y reprogramado eléctricamente, a diferencia de la EPROM que ha de borrarse mediante rayos ultravioletas. Aunque una EEPROM puede ser leída un número ilimitado de veces, sólo puede ser borrada y reprogramada entre 100.000 y 1.000.000 de veces.

Estos dispositivos suelen comunicarse mediante protocolos como I2P, SPI y Microwire. En otras ocasiones se integra dentro de chips como microcontroladores y DSPs para lograr una mayor rapidez. La memoria flash es una forma avanzada de EEPROM creadas por Intel.

3.Memoria flash: Está basada en las memorias EEPROM pero permite el borrado bloque a bloque y es más barata y densa.

La Memoria flash es una forma evolucionada de la memoria EEPROM que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que sólo permite escribir o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo.

Las memorias flash son de tipo no volátil, esto es, la información que almacena no se pierde en cuanto se desconecta de la corriente, una característica muy valorada para la multitud de usos en los que se emplea este tipo de memoria.

Los principales usos de este tipo de memorias son pequeños dispositivos basados en el uso de baterías como telefonos moviles, PDAs, pequeños electrodomésticos, camaras de fotos digitales, reproductores portatiles de audio, etc.

Las capacidades de almacenamiento de estas tarjetas que integran memorias flash comenzaron en 8 MB pero actualmente se pueden encontrar en el mercado tarjetas de hasta 8 GB anunciadas para mediados de 2005 por varios fabricantes.

La velocidad de transferencia de estas tarjetas, al igual que la capacidad de las mismas, se ha ido incrementando progresivamente. La nueva generación de tarjetas permitirá velocidades de hasta 20 MB/s.

Sin embargo, todos los tipos de memoria flash sólo permiten un número limitado de escrituras y borrados, generalmente entre 100.000 y un millón, dependiendo de la celda, de la precisión del proceso de fabricación y del voltaje necesario para su borrado.
Este tipo de memoria está fabricado con puertas lógicas NOR y NAND para almacenar los 0’s ó 1’s correspondientes. Actualmente (08-08-2005) hay una gran división entre los fabricantes de un tipo u otro, especialmente a la hora de elegir un sistema de archivos para estas memorias. Sin embargo se comienzan a desarrollar memorias basadas en ORNAND.

Las aplicaciones más habituales son:

· El llavero USB que, además del almacenamiento, suelen incluir otros servicios como radio FM, grabación de voz y, sobre todo como reproductores portátiles de mp3 y otros formatos de audio.
· Las PC cads
Las tarjetas de memoria flash que son el sustituto del carrete en la fotografía digital, ya que en las mismas se almacenan las fotos.

3. Memorias de Lectura/Escritura (RAM)

1. DRAM (Dynamic Random Access Memory): Los datos se almacenan como en la carga de un condensador. Tiende a descargarse y, por lo tanto, es necesario un proceso de refresco periódico. Son más simples y baratas que las SRAM.

Representa la abreviatura de Dinamic Random Access Memory. Entre sus ventajas más importantes, encontramos el bajo coste en comparación con otras tecnologías mucho más caras y complejas. Además, sus prestaciones son suficientemente rápidas como para cubrir las necesidades de los procesadores que hasta hace poco se estaban utilizando. Entre sus mayores desventajas encontramos la necesidad de refrescar la memoria cientos de veces por segundo, ya que sólo un momento sin energía hará que todos los datos se pierdan. Por ello, estos chips consumen una gran cantidad de energía y requieren de un control constante.

2. SRAM (Static Random Access Memory): Los datos se almacenan formando biestables, por lo que no require refresco. Igual que DRAM es volátil. Son más rápidas que las DRAM y más caras.

RAM es el acronimo inglés de Random Access Memory (memoria de acceso aleatorio).
Se trata de una memoria de semiconductor en la que se puede tanto leer como escribir información. Es una memoria volatil, es decir, pierde su contenido al desconectar la energía eléctrica. Se utiliza normalmente como memoria temporal para almacenar resultados intermedios y datos similares no permanentes.

Su denominación surge en contraposición a las denominadas memorias de acceso secuencial. Debido a que en los comienzos de la computación las memorias principales (o primarias) de los computadores eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas), es frecuente que se hable de memoria RAM para hacer referencia a la memoria principal de un computador.

En estas memorias se accede a cada celda (generalmente se direcciona a nivel de bytes) mediante un cableado interno, es decir, cada byte tiene un camino prefijado para entrar y salir, a diferencia de otros tipos de almacenamiento, en las que hay una cabeza lectograbadora que tiene que ubicarse en la posición deseada antes de leer el dato deseado.

Se dicen "de acceso aleatorio" porque los diferentes accesos son independientes entre sí. Por ejemplo, si un disco rigido debe hacer dos accesos consecutivos a sectores alejados físicamente entre sí, se pierde un tiempo en mover la cabeza hasta la pista deseada (o esperar que el sector pase por debajo, si ambos están en la misma pista), tiempo que no se pierde en la RAM.

Las RAMs se dividen en estáticas y dinámicas. Una memoria RAM estática mantiene su contenido inalterado mientras esté alimentada. La información contenida en una memoria RAM dinámica se degrada con el tiempo, llegando ésta a desaparecer, a pesar de estar alimentada. Para evitarlo hay que restaurar la información contenida en sus celdas a intervalos regulares, operación denominada refresco.