
doctor ratings dallas
El mantenimiento del computador es aquel que debemos realizar al computador cada cierto tiempo, bien sea para corregir fallas existentes o para prevenirlas.
El periodo de mantenimiento depende de diversos factores: la cantidad de horas diarias de operación, el tipo de actividad (aplicaciones) que se ejecutan, el ambiente donde se encuentra instalada (si hay polvo, calor, etc.), el estado general (si es un
Una
En cambio si la PC se usa más de 4 horas diarias, tiene mucho tiempo de operación, se recomienda hacer un mantenimiento por lo menos una vez al mes.
No debe considerarse dentro de esta actividad la limpieza externa y el uso sistemático de cubiertas protectoras de polvo, insectos y suciedad ambiental, ni tampoco la realización de copias de seguridad (backup), o la aplicación de barreras anti-virus, proxies o cortafuegos (firewalls) que dependen de las condiciones específicas de operación y entorno ambiental.
Se puede definir Mantenimiento del PC como una serie de rutinas periódicas que debemos realizar a la PC, necesarias para que la computadora ofrezca un rendimiento óptimo y eficaz a la hora de su funcionamiento. De esta forma podemos prevenir o detectar cualquier falla que pueda presentar el computador.
RAZONES PARA HACER UN MANTENIMIENTO AL PC
Las computadoras funcionan muy bien y están protegidas cuando reciben mantenimiento. Si no se limpian y se organizan con frecuencia, el disco duro se llena de información, el sistema de archivos se desordena y el rendimiento general disminuye.
Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la información estará más desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los cuales son:
La computadora trabaja más de lo que normalmente se cree. Está constantemente dando prioridad a las tareas, ejecutando órdenes y distribuyendo la memoria.
Sin embargo, con el tiempo ocurren errores en el disco duro, los datos se desorganizan y las referencias se vuelven obsoletas.
Estos pequeños problemas se acumulan y ponen lento el sistema operativo, las fallas del sistema y software ocurren con más frecuencia y las operaciones de encendido y apagado se demoran más.
Para que el sistema funcione adecuadamente e incluso para que sobre todo no se ponga tan lento, se debe realizar un mantenimiento periódico.
Asegurándonos de incluir en la rutina del mantenimiento estas labores:
Para garantizar un rendimiento optimo y eficaz de la
Debemos eliminar los programas
Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden corregir estas son:
Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos archivos innecesarios tenga la computadora, estará más protegida de amenazas como el hurto de la identidad en Internet.
Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en ocasiones no especifican la causa), algunas aplicaciones no se inician, o se cierran después de abiertas, etc.
Como factor de
Todas las aplicaciones de Windows generan archivos temporales.
Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios donde se alojan.
En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones anormales, o Windows "se cuelga" o por una deficiente programación de la aplicación.
Estos archivos temporales deben borrarse del disco duro.
Existen otro tipo de archivos que pueden borrarse, y no son temporales: la papelera de reciclaje, el caché de
El caché de Internet debe borrarse si resulta estrictamente necesario, ya que después de borrado no podrán verse las páginas visitadas sin estar conectado.
Debe hacerse mediante la función explícita del navegador, y además ajustarse el tamaño del caché.
Un usuario experimentado puede intentar otras posibilidades, como por ejemplo eliminar DLL duplicadas, instaladores, datos de aplicaciones desinstaladas, etc.
Debe obrar con mucho cuidado cuando haga esta "limpieza profunda" y si no hay plena seguridad de que un archivo en cuestión puede ser borrado, no debe eliminarlo de la papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su ubicación original si resultara necesario.
En general lo que se debe realizar son estas labores:
De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de información (aunque este evento no siempre puede detectarse con anticipación).
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida que aumenta, la velocidad disminuye en razón del incremento de los tiempos de
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones hasta horas), y aunque puede realizarse como tarea de fondo no resulta conveniente la ejecución simultanea de otro programa mientras se desfragmenta el disco, debiendo desactivarse también el protector de pantalla.
El problema es que las computadoras se han vuelto tan confiables y convenientes, que damos por hecho su operación eficaz.
Sin embargo, al igual que una casa o un
Si se realiza las siguientes labores de mantenimiento con frecuencia la computadora funcionará de manera segura y sin problemas:
De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento.
Por esta razón periódicamente debemos utilizar el Scandisk u otro
Una vez esto hecho procedemos a realizar una limpieza profunda de todos los archivos innecesarios que ponen lento al sistema, tales archivos son: programas antiguos, archivos temporales de internet, instaladores de programas, entrada de registros inválidas, accesos directos dañados, los archivos contenido en la papelera de reciclaje, entre otros.
De esta manera conseguiremos una PC más rápida, eficiente, optima, segura y menos propensa a perder información.
BIT: (dígito binario) un dígito simple de un numero binario (1 ó 0)
BYTE: Grupo de bits adyacentes operados como una unidad,
COMPILADOR: Programa de computadora que produce un programa en lenguaje de maquina, de un programa fuente que generalmente esta escrito por el programador en un lenguaje de alto nivel.
CÓDIGO MAQUINA: para que se pueda ejecutar un programa, debe estar en lenguaje de maquina de la computadora que lo esta ejecutando.
CHIP: 1. Pastilla. 2. Plaqueta. 3. Pequeña pieza de silicio o algún otro material semiconductor, que contiene en su interior un circuito integrado. Por su propia naturaleza, chip es sinónimo de circuito integrado.
CIRCUITO INTEGRADO: 1. Chip 2. Sistema de circuitos interrelacionados, almacenados en una pequeña tableta o pastilla de silicio.
COMPUTADORA: Máquina o dispositivo capaz de recibir información, procesarla y entregar resultados en la forma deseada. 2. Equipo electrónico (Hardware) que recibe instrucciones en forma de pro gramas (Software) para resolver diferentes tareas utilizando algoritmos.
COMPUTADORA DIGITAL: Computadora que opera sobre datos discretos o discontinuos; en otras palabras, sobre dígitos binarios (ceros y unos) representados por impulsos eléctricos. Esto contrasta con las computadoras analógicas, las cuales operan sobre variables continuas como la temperatura o la presión estableciendo analogías entre las variaciones y los datos. La mayoría de las computadoras actuales son de tipo digital.
COMPUTADORA PERSONAL (PC): Microcomputadora destinada a trabajo individual o de escritorio. 2. Sistema individual de escritorio, portátil o de portafolio que consta de monitor, unidad central de procesamiento y teclado. El nombre de Personal Computer (PC) lo dio IBM a sus microcomputadoras de escritorio, y es como se conoce a las computadoras con tecnología IBM y a sus clones o compatibles. Actualmente tienen una gran capacidad de procesamiento, comparable con las minis o macro computadoras utilizadas por bancos, centros de investigación e industria en general.
DATOS: Símbolos, letras, números o hechos aislados que pueden ser leídos y procesados por una computadora para producir información.
EQUIPO HARDWARE: Componentes mecánicos, eléctricos, magnéticos y electrónicos de una computadora o sistema de cómputo. 2. Los componentes físicos de un sistema de cómputo, en contrapartida con el
FIBRA ÓPTICA: Delgadísimo filamento transparente hecho de material dieléctrico como vidrio o plástico, que tiene una enorme capacidad de transmisión de la luz mediante impulsos luminosos; esto es, en comunicaciones se está en posibilidad de transmitir millones de bits por segundo utilizando estos útiles medios.
HARDWARE: Es la parte tangible del computador.
INFORMACION: Es lo que se obtiene del procesamiento de datos, es el resultado final.
INFORMÁTICA: El término es acrónimo de INFORmación au toMATICA, que significa: todo aquello que tiene relación con el procesamiento de datos, utilizando las computadoras o los equipos de procesamiento automático de información. En Estados Unidos no es muy conocido el término, que se toma como sinónimo de lnformation Technology (IT).
INTELIGENCIA ARTIFICIAL (Al): 1. Rama de la ciencia de la computación que intenta entender la naturaleza de la inteligencia para producir nuevos tipos de máquinas o programas inteligentes. 2. Emulación mediante sistemas de cómputo, de situaciones asociadas con la inteligencia y el comportamiento humanos como el razonamiento, el aprendizaje y la auto-superación.
LENGUAJE BINARIO: Código o len guaje utilizado en computación, en el cual la codificación de datos se realiza únicamente mediante bits; es decir unos y ceros.
MICROCOMPUTADORA: Pequeña computadora que utiliza uno o más microprocesadores para realizarlos procesos de cálculo. Generalmente consta de unidades de entrada y salida como teclado y monitor respectivamente, y unidades de almacenamiento secundario de información.
MICROPROCESADOR: Unidad Central de Procesamiento (CPU) de una computadora, ubicada en el interior de uno o varios chips. 2. Pequeño y complejo procesador central de una computadora compuesto de una gran cantidad de microcircuitos encapsulados en una sola unidad.
MULTIPROGRAMACION: En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario.
PROGRAMA: Es una colección de instrucciones que indican a la computadora que debe hacer. Un programa se denomina software, por lo tanto, programa, software e instrucción son sinónimos.
PROGRAMA FUENTE: Instrucción escrita por el programador en un lenguaje de programación para plantear al computador el proceso que debe ejecutar.
PROGRAMACIÓN: Proceso de escribir una secuencia de pasos o instrucciones que permiten resolver un problema o tarea específica, auxiliado por el planteamiento de un algoritmo. 2. Pasos que si siguen para crear un programa:
PROGRAMAS SOFTWARE: lnstrucciones, funciones y comandos que integran un programa para controlar. El software o programa es una creación intelectual que no depende absolutamente del equipo físico sobre el cual trabaja. Es la parte intangible de la computación, pero al fin y al cabo, la parte más importante, porque ninguna computadora hace nada para lo que no haya sido programada. Los programas de propósito específico, como los procesadores de textos o los manejadores de bases de datos se conocen como software de aplicación. Los sistemas operativos constituyen una clase especial de programas de control.
SISTEMA OPERATIVO: Programa o grupo de programas que permiten controlar las operaciones de la computadora.
SISTEMAS EXPERTOS: Sistemas desarrollados mediante las técnicas de inteligencia artificial para resolución de problemas específicos.
SOFTWARE: Conjunto de programas, documentos, procesamientos y rutinas asociadas con la operación de un sistema de computadoras, es decir, la parte intangible de computador.
TUBO DE VACÍO. Tubo electrónico que se utiliza como amplificador o conmutador, controlando el flujo de electrones en su interior, al vacío.
TRANSISTOR: Dispositivo electrónico que sirve como amplificador de señal o controlador de interrupción (conmutador).
TARJETA PERFORADA: Tenía un alambre que pasaba a través de los huecos dentro de una
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.
CUARTA GENERACION DE COMPUTADORAS(1971-1981)
Microprocesador , Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la
TERCERA GENERACION (1964-1971)
Circuitos Integrados, Compatibilidad con
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como
La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
Nacho, nuestra mascota, se ha convertido en un ícono de Atlético Nacional, querido por grandes y chicos nos acompaña siempre en todos los partidos de local del club animando a las barras y contagiando de energía positiva a nuestros jugadores que saltan a la cancha animados con todo el fervor nacionalista en pos de un nuevo triunfo.
Su cara bonachona y sus animados movimientos cosquistan la simpatía de los asistentes al estadío pero sin duda alguna son los niños los que mas lo prefieren y desean su presencia.
Nacho tambièn nos acompaña en las actividades de nuestra escuela de futbol donde mas de 1000 niños disfrutan de su presencia y en las Tiendas Verdes lo hace con su dinamismo para entregarle alegrias a los visitantes y compradores.
Para el público en general presta el servicio en las reuniones y fiestas de los niños con módicos precios para que la presencia de nacho haga de la ocasión una fecha inolvidable.