domingo, 28 de julio de 2013

bases de datos

Base de datos

Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), y por ende se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.
Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas. También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran protegidos por las leyes de varios países. Por ejemplo en España, los datos personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de Carácter Personal (LOPD).
sgbd

Sistema de gestión de bases de datos

Un Sistema de Gestión de Bases de Datos (SGBD) es un conjunto de programas que permiten el almacenamiento, modificación y extracción de la información en una base de datos, además de proporcionar herramientas para añadir, borrar, modificar y analizar los datos. Los usuarios pueden acceder a la información usando herramientas específicas de interrogación y de generación de informes, o bien mediante aplicaciones al efecto.
Los SGBD también proporcionan métodos para mantener la integridad de los datos, para administrar el acceso de usuarios a los datos y recuperar la información si el sistema se corrompe. Permite presentar la información de la base de datos en variados formatos. La mayoría de los SGBD incluyen un generador de informes. También puede incluir un módulo gráfico que permita presentar la información con gráficos y tartas.
Hay muchos tipos de SGBD distintos según manejen los datos y muchos tamaños distintos según funcionen sobre ordenadores personales y con poca memoria a grandes sistemas que funcionan en mainframes con sistemas de almacenamiento especiales.
Generalmente se accede a los datos mediante lenguajes de interrogación, lenguajes de alto nivel que simpifican la tarea de construir las aplicaciones. También simplifican la interrogación y la presentación de la información. Un SGBD permite controlar el acceso a los datos, asegurar su integridad, gestionar el acceso concurrente a ellos, recuperar los datos tras un fallo del sistema y hacer copias de seguridad. Las Bases de Datos y los sistemas para su gestión son esenciales para cualquier área de negocio, y deben ser gestionados con esmero.

SQL

El lenguaje de consulta estructurado o SQL (por sus siglas en inglés structured query language) es un lenguaje declarativo de acceso a bases de datos relacionales que permite especificar diversos tipos de operaciones en ellas. Una de sus características es el manejo del álgebra y el cálculo relacional que permiten efectuar consultas con el fin de recuperar de forma sencilla información de interés de bases de datos, así como hacer cambios en ella.
mer

Modelo entidad-relación

Un diagrama o modelo entidad-relación (a veces denominado por sus siglas en inglés, E-R "Entity relationship", o del español DER "Diagrama de Entidad Relación") es una herramienta para el modelado de datos que permite representar las entidades relevantes de un sistema de información así como sus interrelaciones y propiedades.

El Modelo Entidad-Relación.
  1. Se elabora el diagrama (o diagramas) entidad-relación.
  2. Se completa el modelo con listas de atributos y una descripción de otras restricciones que no se pueden reflejar en el diagrama.
El modelado de datos no acaba con el uso de esta técnica. Son necesarias otras técnicas para lograr un modelo directamente implementable en una base de datos. Brevemente:

Integridad referencial

La integridad referencial es una propiedad deseable en las bases de datos. Gracias a la integridad referencial se
 garantiza que una entidad (fila o registro) siempre se relaciona con otras entidades válidas, es decir, que existen
 en la base de datos. Implica que en todo momento dichos datos sean correctos, sin repeticiones innecesarias,
 datos perdidos y relaciones mal resueltas.
En pocas palabras la entidad referencial sirve para que no cometas errores.
Todas las bases de datos relacionales gozan de esta propiedad gracias a que el software gestor de base de datos
 vela por su cumplimiento. En cambio, las bases de datos jerárquicas requieren que los programadores se
 aseguren de mantener tal propiedad en sus programas.

Ejemplo: Cómo funciona

Supongamos una base de datos con las entidades Persona y Factura. Toda factura corresponde a una persona y
 solamente una. Implica que en todo momento dichos datos sean correctos, sin repeticiones innecesarias, datos
 perdidos y relaciones mal resueltas.
Supongamos que una persona se identifica por su atributo DNI (Documento Nacional de Identidad).
 También tendrá otros atributos como el nombre y la dirección. La entidadFactura debe tener un atributo
 DNI_cliente que identifique a quién pertenece la factura.
Por sentido común es evidente que todo valor de DNI_cliente debe corresponder con algún valor existente
 del atributo DNI de la entidad Persona. Esta es la idea intuitiva de la integridad referencial.

Clave primaria

En el diseño de bases de datos relacionales, se llama clave primaria a un campo o a una
 combinación de campos que identifica de forma única a cada fila de una tabla.
 Una clave primaria comprende de esta manera una columna o conjunto de columnas.
 No puede haber dos filas en una tabla que tengan la misma clave primaria.
Una clave primaria debe identificar unívocamente a todas las posibles filas de una tabla y
 no solo a las filas que se encuentran en un momento determinado. Ejemplos de claves
 primarias son DNI (asociado a una persona) o ISBN (asociado a un libro). Las guías telefónicas
 y diccionarios no pueden usar nombres o palabras o números del sistema decimal de Dewey
 como claves candidatas, porque no identifican unívocamente números de teléfono o palabras.
El modelo relacional, según se lo expresa mediante cálculo relacional y álgebra relacional,
 no distingue entre clave primaria y otros tipos de claves. Las claves primarias fueron agregadas
 al estándar SQL principalmente para conveniencia del programador.
 En una arquitectura entidad-relación, la clave primaria permite las relaciones de la tabla
 que tiene la clave primaria con otras tablas que van a utilizar la información de esta tabla.
Tanto claves únicas como claves primarias pueden referenciarse con claves foráneas.
 

encriptacion

¿Qué es Encriptación?

Encriptación es el proceso mediante el cual cierta información o texto sin formato es cifrado de forma que el resultado sea ilegible a menos que se conozcan los datos necesarios para su interpretación. Es una medida de seguridad utilizada para que al momento de almacenar o transmitir información sensible ésta no pueda ser obtenida con facilidad por terceros. Opcionalmente puede existir además un proceso de desencriptación a través del cuál la información puede ser interpretada de nuevo a su estado original, aunque existen métodos de encriptación que no pueden ser revertidos. El término encriptación es traducción literal del inglés y no existe en el idioma español. La forma más correcta de utilizar este término sería cifrado.

Criptología

La encriptación como proceso forma parte de la criptología, ciencia que estudia los sistemas utilizados para ocultar la información.


La criptología es la ciencia que estudia la transformación de un determinado mensaje en un código de forma tal que a partir de dicho código solo algunas personas sean capaces de recuperar el mensaje original.


La mayoría de los algoritmos modernos del cifrado se basan en una de las siguientes dos categorías de procesos:

  • Problemas matemáticos que son simples pero que tienen una inversa que se cree (pero no se prueba) que es complicada

  • Secuencias o permutaciones que son en parte definidos por los datos de entradas.

La primera categoría, que resume la mayoría de los métodos del cifrado de clave pública, sufre de la incapacidad de probar la dificultad de los algoritmos. El segundo método, que contiene a la mayoría de los códigos, sufre a menudo de correlaciones teóricas entre la entrada ("texto de entrada") y la salida ("texto cifrado").

Usos de la Encriptación

Algunos de los usos más comunes de la encriptación son el almacenamiento y transmisión deinformación sensible como contraseñas, números de identificación legal, números de tarjetas de crédito, reportes administrativo-contables y conversaciones privadas, entre otros.
Como sabemos, en un Sistema de Comunicación de Datos, es de vital importancia asegurar que la Información viaje segura, manteniendo su autenticidad, integridad, confidencialidad y el no repudio de la misma entre otros aspectos.
Estas características solo se pueden asegurar utilizando las Técnicas de Firma Digital Encriptada y la Encriptación de Datos.

Métodos de Encriptación

Para poder Encriptar un dato, se pueden utilizar tres procesos matemáticos diferentes:
Los algoritmos HASH, los simétricos y los asimétricos.

1. Algoritmo HASH:
Este algoritmo efectúa un cálculo matemático sobre los datos que constituyen el documento y da como resultado un número único llamado MAC. Un mismo documento dará siempre un mismo MAC.

2. Criptografía de Clave Secreta o Simétrica
Utilizan una clave con la cual se encripta y desencripta el documento. Todo documento encriptado con una clave, deberá desencriptarse, en el proceso inverso, con la misma clave. Es importante destacar que la clave debería viajar con los datos, lo que hace arriesgada la operación, imposible de utilizar en ambientes donde interactúan varios interlocutores.
Los criptosistemas de clave secreta se caracterizan porque la clave de cifrado y la de descifrado es la misma, por tanto la robustez del algoritmo recae en mantener el secreto de la misma.
Sus principales características son:
  • rápidos y fáciles de implementar
  • clave de cifrado y descifrado son la misma
  • cada par de usuarios tiene que tener una clave secreta compartida
  • una comunicación en la que intervengan múltiples usuarios requiere muchas claves secretas distintas
Actualmente existen dos métodos de cifrado para criptografía de clave secreta, el cifrado de flujo y el cifrado en bloques.
  • Cifrado de flujo
    El emisor A, con una clave secreta y un algoritmo determinístico (RKG), genera una secuencia binaria (s) cuyos elementos se suman módulo 2 con los correspondientes bits de texto claro m, dando lugar a los bits de texto cifrado c, Esta secuencia (c) es la que se envía a través del canal. En recepción, B, con la misma clave y el mismo algoritmo determinístico, genera la misma secuencia cifrante (s), que se suma modulo 2 con la secuencia cifrada (c) , dando lugar a los bits de texto claro m.
    Los tamaños de las claves oscilan entre 120 y 250 bits
  • Cifrado en bloque
    Los cifrados en bloque se componen de cuatro elementos:
    - Transformación inicial por permutación.
    - Una función criptográfica débil (no compleja) iterada r veces o "vueltas".
    - Transformación final para que las operaciones de encriptación y desencriptación sean simétricas.
    - Uso de un algoritmo de expansión de claves que tiene como objeto convertir la clave de usuario, normalmente de longitud limitada entre 32 y 256 bits, en un conjunto de subclaves que puedan estar constituidas por varios cientos de bits en total.
3. Algoritmos Asimétricos (RSA):

Requieren dos Claves, una Privada (única y personal, solo conocida por su dueño) y la otra llamada Pública, ambas relacionadas por una fórmula matemática compleja imposible de reproducir. El concepto de criptografía de clave pública fue introducido por Whitfield Diffie y Martin Hellman a fin de solucionar la distribución de claves secretas de los sistemas tradicionales, mediante un canal inseguro. El usuario, ingresando su PIN genera la clave Publica y Privada necesarias. La clave Publica podrá ser distribuida sin ningún inconveniente entre todos los interlocutores. La Privada deberá ser celosamente guardada. Cuando se requiera verificar la autenticidad de un documento enviado por una persona se utiliza la Clave Publica porque el utilizó su Clave Privada.

Firma Digital

Origen:

El concepto de firma digital nació como una oferta tecnológica para acercar la operatoria social usual de la firma ológrafa (manuscrita) al marco de lo que se ha dado en llamar el ciberespacio o el trabajo en redes.


Concepto:Es la transformación de un mensaje utilizando un sistema de cifrado asimétrico de manera que la persona que posee el mensaje original y la clave pública del firmante, pueda establecer de forma segura, que dicha transformación se efectuó utilizando la clave privada correspondiente a la pública del firmante, y si el mensaje es el original o fue alterado desde su concepción.


Ventajas Ofrecidas por la Firma Digital:
El uso de la firma digital satisface los siguientes aspectos de seguridad:

  • Integridad de la información: la integridad del documento es una protección contra la modificación de los datos en forma intencional o accidental. El emisor protege el documento, incorporándole a ese un valor de control de integridad, que corresponde a un valor único, calculado a partir del contenido del mensaje al momento de su creación. El receptor deberá efectuar el mismo cálculo sobre el documento recibido y comparar el valor calculado con el enviado por el emisor. De coincidir, se concluye que el documento no ha sido modificado durante la transferencia.

  • Autenticidad del origen del mensaje: este aspecto de seguridad protege al receptor del documento, garantizándole que dicho mensaje ha sido generado por la parte identificada en el documento como emisor del mismo, no pudiendo alguna otra entidad suplantar a un usuario del sistema. Esto se logra mediante la inclusión en el documento transmitido de un valor de autenticación (MAC, Message autentication code). El valor depende tanto del contenido del documento como de la clave secreta en poder del emisor.

  • No repudio del origen: el no repudio de origen protege al receptor del documento de la negación del emisor de haberlo enviado. Este aspecto de seguridad es más fuerte que los anteriores ya que el emisor no puede negar bajo ninguna circunstancia que ha generado dicho mensaje, transformándose en un medio de prueba inequívoco respecto de la responsabilidad del usuario del sistema.

    Tunneling

    Concepto

    Para poder alcanzar los objetivos de seguridad y de confiabilidad que se plantean en una VPN es necesario apelar a protocolos que se ocupen de la creación de un túnel lógico y a la encriptación y desencriptación de los paquetes que son transmitidos.
    El túnel es un método por el cual se hace uso de una red intermedia para transferir datos de un extremo a otro. Los paquetes que se transmiten se encapsulan sobre otro encabezado correspondiente al protocolo de túnel, este nuevo encabezado contiene la información necesaria para que el paquete atravesando la red intermedia llegue al destino correspondiente, una vez llegados a destino son desencapsulados y dirigidos al destino final.
    Un túnel es un canal virtual, configurado entre dos sistemas remotos que se encuentran en diferentes redes, sobre una conexión real que involucra más de un nodo intermedio.

    Técnica:


    La técnica de “tunneling” consiste en encapsular un mensaje de un protocolo dentro de sí mismo aprovechando ciertas propiedades del paquete externo con el objetivo de que el mensaje sea tratado de forma diferente a como habría sido tratado el mensaje encapsulado. De esta forma un paquete puede “saltar” la topología de una red. Por ejemplo, un túnel puede ser usado para evitar un firewall (con los peligros consecuentes de esta decisión). Esta es una consideración a tener en cuenta al configurar un túnel.


    Características y requerimientos básicos:


    Las características más importantes de los protocolos que soportan “tunneling” son encriptado de datos, autenticación, autorización e integridad de datos; muchas de estas características son posibles gracias al encriptado completo del paquete encapsulado.


    Se pueden destacar como requerimientos básicos de un protocolo de túnel que cumpla con las siguientes condiciones:


    • Autenticación de usuario
    • Asignación dinámica de direcciones
    • Compresión de datos
    • Encriptación de datos
    • Administración de llaves
    • Soporte multiprotocolo

    Tipos de túneles
    • Túneles Voluntarios: Un usuario o estación de trabajo cliente puede emitir una petición VPN para configurar y crear un túnel voluntario. En este caso, el usuario es un terminal del túnel y actúa como el cliente del mismo.
    • Túneles Compulsivos: Una VPN con servidor con capacidad de acceso por llamada, configura y crea un túnel, donde el usuario no es un terminal del mismo. Otro dispositivo, el RAS (Servidor de Acceso Remoto), entre la computadora usuario y el servidor de túnel es la terminal del túnel y actuará como cliente.

informática forense

La informática forense está adquiriendo una gran importancia dentro del
área de la información electrónica, esto debido al aumento del valor de la
información y/o al uso que se le da a ésta, al desarrollo de nuevos espacios
donde es usada (por Ej. El Internet), y al extenso uso de computadores por
parte de las compañías de negocios tradicionales (por Ej. bancos). Es por
esto que cuando se realiza un crimen, muchas veces la información queda
almacenada en forma digital. Sin embargo, existe un gran problema, debido
a que los computadores guardan la información de información forma tal
que no puede ser recolectada o usada como prueba utilizando medios
comunes, se deben utilizar mecanismos diferentes a los tradicionales. Es de
aquí que surge el estudio de la computación forense como una ciencia
relativamente nueva.
Resaltando su carácter científico, tiene sus fundamentos en las leyes de la
física, de la electricidad y el magnetismo. Es gracias a fenómenos
electromagnéticos que la información se puede almacenar, leer e incluso
recuperar cuando se creía eliminada.
La informática forense, aplicando procedimientos estrictos y rigurosos
puede ayudar a resolver grandes crímenes apoyándose en el método
científico, aplicado a la recolección, análisis y validación de todo tipo de
pruebas digitales. ¿Qué es la Informática Forense?
Según el FBI, la informática (o computación) forense es la ciencia de
adquirir, preservar, obtener y presentar datos que han sido procesados
electrónicamente y guardados en un medio computacional [ReEx00].
La informática forense hace entonces su aparición como una disciplina
auxiliar de la justicia moderna, para enfrentar los desafíos y técnicas de los
intrusos informáticos, así como garante de la verdad alrededor de la
evidencia digital que se pudiese aportar en un proce[Acis06].
Desde 1984, el Laboratorio del FBI y otras agencias que persiguen el
cumplimiento de la ley empezaron a desarrollar programas para examinar
evidencia computacional.
Dentro de lo forense encontramos varias definiciones [Acis06]:
Computación forense (computer forensics) que entendemos por disciplina
de las ciencias forenses, que considerando las tareas propias asociadas con
la evidencia, procura descubrir e interpretar la información en los medios
informáticos para establecer los hechos y formular las hipótesis
relacionadas con el caso; o como la disciplina científica y especializada que
entendiendo los elementos propios de las tecnologías de los equipos de
computación ofrece un análisis de la información residente en dichos
equipos.
Forensia en redes (network forensics)
Es un escenario aún más complejo, pues es necesario comprender la
manera como los protocolos, configuraciones e infraestructuras de
comunicaciones se conjugan para dar como resultado un momento
específico en el tiempo y un comportamiento particular.
Esta conjunción de palabras establece un profesional que entendiendo las
operaciones de las redes de computadores, es capaz, siguiendo los
protocolos y formación criminalística, de establecer los rastros, los
movimientos y acciones que un intruso ha desarrollado para concluir su
acción. A diferencia de la definición de computación forense, este contexto
exige capacidad de correlación de evento, muchas veces disyuntos y
aleatorios, que en equipos particulares, es poco frecuente.
Forensia digital (digital forensics) 
Forma de aplicar los conceptos, estrategias y procedimientos de la
criminalística tradicional a los medios informáticos especializados, con el fin
de apoyar a la administración de justicia en su lucha contra los posibles
delincuentes o como una disciplina especializada que procura el
esclarecimiento de los hechos (¿quién?, ¿cómo?, ¿dónde?, ¿cuándo?,
¿porqué?) de eventos que podrían catalogarse como incidentes, fraudes o
usos indebidos bien sea en el contexto de la justicia especializada o como
apoyo a las acciones internas de las organizaciones en el contexto de la
administración de la inseguridad informática.
Importancia de la Informática Forense 
"High-tech crime is one of the most important priorities of the Department
of Justice"[JaRe96]. Con esta frase podemos ver cómo poco a poco los
crímenes informáticos, su prevención, y procesamiento se vuelven cada vez
más importantes. Esto es respaldado por estudios sobre el número de
incidentes reportados por las empresas debido a crímenes relacionados con
la informática. (Ver [CERT06])
Sin embargo, la importancia real de la informática forense proviene de sus
objetivos.
Objetivos de la Informática Forense 
La informática forense tiene 3 objetivos, a saber:
1. La compensación de los daños causados por los criminales o
intrusos.
2. La persecución y procesamiento judicial de los criminales.
3. La creación y aplicación de medidas para prevenir casos similares.
Estos objetivos son logrados de varias formas, entre ellas, la principal es la
recolección de evidencia.
Usos de la Informática Forense [InfFor01]
Existen varios usos de la informática forense, muchos de estos usos
provienen de la vida diaria, y no tienen que estar directamente relacionados
con la informática forense:
1. Prosecución Criminal: Evidencia incriminatoria puede ser usada
para procesar una variedad de crímenes, incluyendo homicidios,
fraude financiero, tráfico y venta de drogas, evasión de impuestos o
pornografía infantil.
2. Litigación Civil: Casos que tratan con fraude, discriminación,
acoso, divorcio, pueden ser ayudados por la informática forense.
3. Investigación de Seguros: La evidencia encontrada en
computadores, puede ayudar a las compañías de seguros a
disminuir los costos de los reclamos por accidentes y
compensaciones.
4. Temas corporativos: Puede ser recolectada información en casos
que tratan sobre acoso sexual, robo, mal uso o apropiación de
información confidencial o propietaria, o aún de espionaje industrial.
5. Mantenimiento de la ley: La informática forense puede ser usada
en la búsqueda inicial de órdenes judiciales, así como en la
búsqueda de información una vez se tiene la orden judicial para
hacer la búsqueda exhaustiva.
Ciencia Forense 
La ciencia forense nos proporciona los principios y técnicas que facilitan la
investigación del delito criminal, en otras palabras: cualquier principio o
técnica que puede ser aplicada para identificar, recuperar, reconstruir o analizar la evidencia durante una investigación criminal forma parte de la
ciencia forense. [ForIRT01]
Los principios científicos que hay detrás del procesamiento de una evidencia
son reconocidos y usados en procedimientos como:
• Recoger y examinar huellas dactilares y ADN.
• Recuperar documentos de un dispositivo dañado.
• Hacer una copia exacta de una evidencia digital.
• Generar una huella digital con un algoritmo hash MD5 o SHA1 de un
texto para asegurar que este no se ha modificado.
• Firmar digitalmente un documento para poder afirmar que es
auténtico y preservar la cadena de evidencias.
Un forense aporta su entrenamiento para ayudar a los investigadores a
reconstruir el crimen y encontrar pistas. Aplicando un método científico
analiza las evidencias disponibles, crea hipótesis sobre lo ocurrido para
crear la evidencia y realiza pruebas, controles para confirmar o contradecir
esas hipótesis. Esto puede llevar a una gran cantidad de posibilidades sobre
lo que pudo ocurrir, esto es debido a que un forense no puede conocer el
pasado, no puede saber qué ocurrió ya que sólo dispone de una información
limitada. Por esto, sólo puede presentar posibilidades basadas en la
información limitada que posee.
Un principio fundamental en la ciencia forense, que usaremos
continuamente para relacionar un criminal con el crimen que ha cometido,
es el Principio de Intercambio o transferencia de Locard, (Edmond Locard,
francés fundador del instituto de criminalistica de la universidad de Lion,
. Evidencia
Sospechoso Víctima
Escena del crimen
Este principio fundamental viene a decir que cualquiera o cualquier objeto
que entra en la escena del crimen deja un rastro en la escena o en la
víctima y vice-versa (se lleva consigo), en otras palabras: “cada contacto
deja un rastro”. En el mundo real significa que si piso la escena del crimen
con toda seguridad dejaré algo mío ahí, pelo, sudor, huellas, etc. Pero
también me llevaré algo conmigo cuando abandone la escena del crimen, ya
sea barro, olor, una fibra, etc. Con algunas de estas evidencias, los forenses
podrán demostrar que hay una posibilidad muy alta de que el criminal
estuviera en la escena del crimen.  En este ejemplo hemos hablado de evidencias físicas, en la ciencia forense
tradicional hay varios tipos de evidencias físicas:
• Evidencia transitoria: como su nombre indica es temporal por
naturaleza, por ejemplo un olor, la temperatura, o unas letras sobre
la arena o nieve (un objeto blando o cambiante).
• Evidencia curso o patrón: producidas por contacto, por ejemplo la
trayectoria de una bala, un patrón de rotura de un cristal, patrones
de posicionamiento de muebles, etc.
• Evidencia condicional: causadas por una acción o un evento en la
escena del crimen, por ejemplo la localización de una evidencia en
relación con el cuerpo, una ventana abierta o cerrada, una radio
encendida o apagada, dirección del humo, etc.
• Evidencia transferida: generalmente producidas por contacto entre
personas, entre objetos o entre personas y objetos. Aquí descubrimos
el concepto de relación.
En la práctica las evidencias transferidas se dividen en dos tipos, conocidas
como:
• Transferencia por rastro: aquí entra la sangre, semen, pelo, etc.
• Transferencia por huella: huellas de zapato, dactilares, etc.
Aunque en la realidad, estas últimas suelen mezclarse, por ejemplo una
huella de zapato sobre un charco de sangre.
El principio de intercambio de Locard se puede resumir así:
1. El sospechoso se llevará lejos algún rastro de la escena y de la
víctima.
2. La víctima retendrá restos del sospechoso y puede dejar rastros de si
mismo en el sospechoso.
3. El sospechoso dejará algún rastro en la escena.
El objetivo es establecer una relación entre los diferentes componentes:
• la escena del crimen
• la víctima
• la evidencia física
• el sospechoso
Para la correcta resolución del caso, todos estos componentes deben estar
relacionados. Esto se conoce como el concepto de relación, que es lo que
nos faltaba para completar el principio de intercambio de Locard.
Las evidencias pueden, a su vez, ser transferidas de dos formas distintas:
1. Transferencia directa: cuando es transferida desde su origen a otra
persona u objeto de forma directa.
2. Transferencia indirecta: cuando es transferida directamente a una
localización y, de nuevo, es transferida a otro lugar. Importante resaltar que cualquier cosa y todo puede ser una evidencia.
Brevemente, la ciencia forense facilita las herramientas, técnicas y métodos
sistemáticos (pero científicos) que pueden ser usados para analizar una
evidencia digital y usar dicha evidencia para reconstruir qué ocurrió durante
la realización del crimen con el último propósito de relacionar al autor, a la
víctima y la escena del crimen.
Network Forensics 
Forensia en redes, es un escenario aún más complejo, pues es necesario
comprender la manera como los protocolos, configuraciones e
infraestructuras de comunicaciones se conjugan para dar como resultado un
momento específico en el tiempo y un comportamiento particular. Esta
conjunción de palabras establece un profesional que entendiendo las
operaciones de las redes de computadores, es capaz, siguiendo los
protocolos y formación criminalística, de establecer los rastros, los
movimientos y acciones que un intruso ha desarrollado para concluir su
acción. A diferencia de la definición de computación forense, este contexto
exige capacidad de correlación de evento, muchas veces disyuntos y
aleatorios, que en equipos particulares, es poco frecuente [Acis06].
Es la captura, almacenamiento y análisis de los eventos de una red, para
descubrir el origen de un ataque o un posible incidente.
Evidencia Digital
Casey define la evidencia de digital como “cualquier dato que puede
establecer que un crimen se ha ejecutado (commit) o puede proporcionar
una enlace (link) entre un crimen y su víctima o un crimen y su autor”.
[Casey04]
“Cualquier información, que sujeta a una intervención humana u otra
semejante, ha sido extraída de un medio informático” [HBIT03]
A diferencia de la documentación en papel, la evidencia computacional es
frágil y una copia de un documento almacenado en un archivo es idéntica al
original. Otro aspecto único de la evidencia computacional es el potencial de
realizar copias no autorizadas de archivos, sin dejar rastro de que se realizó
una copia. [ComEvi02]. Esta situación crea problemas concernientes a la
investigación del robo de secretos comerciales, como listas de clientes,
material de investigación, archivos de diseño asistidos por computador,
fórmulas y software propietario.
Debe tenerse en cuenta que los datos digitales adquiridos de copias no se
deben alterar de los originales del disco, porque esto invalidaría la
evidencia; por esto los investigadores deben revisar con frecuencia que sus
copias sean exactas a las del disco del sospechoso, para esto se utilizan
varias tecnologías, como por ejemplo checksums o hash MD5 [DaVa01].
Cuando ha sucedido un incidente, generalmente, las personas involucradas
en el crimen intentan manipular y alterar la evidencia digital, tratando de
borrar cualquier rastro que pueda dar muestras del daño. Sin embargo, este
problema es mitigado con algunas características que posee la evidencia
digital. [Casey04]
• La evidencia de Digital puede ser duplicada de forma exacta y se
puede sacar una copia para ser examinada como si fuera la original.
Esto se hace comúnmente para no manejar los originales y evitar el
riesgo de dañarlos.
• Actualmente, con las herramientas existentes, se muy fácil comparar
la evidencia digital con su original, y determinar si la evidencia digital
ha sido alterada.
• La evidencia de Digital es muy difícil de eliminar. Aún cuando un
registro es borrado del disco duro del computador, y éste ha sido
formateado, es posible recuperarlo.
• Cuando los individuos involucrados en un crimen tratan de destruir la
evidencia, existen copias que permanecen en otros sitios.
Clasificación de la evidencia digital
Cano clasifica la evidencia digital que contiene texto en 3 categorías
[EviDig05]:
Registros generados por computador: Estos registros son aquellos, que
como dice su nombre, son generados como efecto de la programación de un
computador. Los registros generados por computador son inalterables por
una persona. Estos registros son llamados registros de eventos de
seguridad (logs) y sirven como prueba tras demostrar el correcto y
adecuado funcionamiento del sistema o computador que generó el registro.
Registros no generados sino simplemente almacenados por o en
computadores: Estos registros son aquellos generados por una persona, y
que son almacenados en el computador, por ejemplo, un documento
realizado con un procesador de palabras. En estos registros es importante
lograr demostrar la identidad del generador, y probar hechos o afirmaciones
contenidas en la evidencia misma. Para lo anterior se debe demostrar
sucesos que muestren que las afirmaciones humanas contenidas en la
evidencia son reales.
Registros híbridos que incluyen tanto registros generados por computador
como almacenados en los mismos: Los registros híbridos son aquellos que
combinan afirmaciones humanas y logs. Para que estos registros sirvan
como prueba deben cumplir los dos requisitos anteriores.
Criterios de admisibilidad
En legislaciones modernas existen cuatro criterios que se deben tener en
cuenta para analizar al momento de decidir sobre la admisibilidad de la
evidencia: la autenticidad, la confiabilidad, la completitud o suficiencia, y el
apego y respeto por las leyes y reglas del poder judicial [AdmEvi03].
Autenticidad: Una evidencia digital será autentica siempre y cuando se
cumplan dos elementos:
• El primero, demostrar que dicha evidencia ha sido generada y
registrada en el lugar de los hechos
• La segunda, la evidencia digital debe mostrar que los medios
originales no han sido modificados, es decir, que la los registros
corresponden efectivamente a la realidad y que son un fiel reflejo de
la misma.
A diferencia de los medios no digitales, en los digitales se presenta gran
volatilidad y alta capacidad de manipulación. Por esta razón es importante
aclarar que es indispensable verificar la autenticidad de las pruebas
presentadas en medios digitales contrario a los no digitales, en las que
aplica que la autenticidad de las pruebas aportadas no será refutada, de
acuerdo por lo dispuesto por el artículo 11 de la ley 446 de 1998:
“Autenticidad de documentos. En todos los procesos, los documentos
privados presentados por las partes para ser incorporados a un expediente
judicial con fines probatorios, se reputarán auténticos, sin necesidad de
presentación personal ni autenticación. Todo ello sin perjuicio de lo
dispuesto en relación con los documentos emanados de terceros” [Ley446].
Para asegurar el cumplimiento de la autenticidad se requiere que una
arquitectura exhiba mecanismos que certifiquen la integridad de los
archivos y el control de cambios de los mismos.
Confiabilidad: Se dice que los registros de eventos de seguridad son
confiables si provienen de fuentes que son “creíbles y verificable”
[AdmEvi03]. Para probar esto, se debe contar con una arquitectura de
computación en correcto funcionamiento, la cual demuestre que los logs
que genera tiene una forma confiable de ser identificados, recolectados,
almacenados y verificados.
Una prueba digital es confiable si el “sistema que lo produjo no ha sido
violado y estaba en correcto funcionamiento al momento de recibir,
almacenar o generar la prueba” [EviDig05]. La arquitectura de computación
del sistema logrará tener un funcionamiento correcto siempre que tenga
algún mecanismo de sincronización del registro de las acciones de los
usurarios del sistema y que a posea con un registro centralizado e íntegro
de los mismos registros.
Suficiencia o completitud de las pruebas: Para que una prueba esté
considerada dentro del criterio de la suficiencia debe estar completa. Para
asegurar esto es necesario “contar con mecanismos que proporcionen
integridad, sincronización y centralización” [AdmEvi03] para lograr tener
una vista completa de la situación. Para lograr lo anterior es necesario
hacer una verdadera correlación de eventos, la cual puede ser manual o
sistematizada.
Apogeo y respeto por las leyes y reglas del poder judicial: Este criterio se
refiere a que la evidencia digital debe cumplir con los códigos de
procedimientos y disposiciones legales del ordenamiento del país. Es decir,
debe respetar y cumplir las normas legales vigentes en el sistema jurídico.
Manipulación de la evidencia digital
Es importante tener presente los siguientes requisitos que se deben cumplir
en cuanto a la manipulación de la evidencia digital.
• Hacer uso de medios forenses estériles (para copias de información)
• Mantener y controlar la integridad del medio original. Esto significa,
que a la hora de recolectar la evidencia digital, las acciones realizadas
no deben cambiar nunca esta evidencia.
• Cuando sea necesario que una persona tenga acceso a evidencia
digital forense, esa persona debe ser un profesional forense.
• Las copias de los datos obtenidas, deben estar correctamente
marcadas, controladas y preservadas. Y al igual que los resultados de
la investigación, deben estar disponibles para su revisión.
• Siempre que la evidencia digital este en poder de algún individuo,
éste será responsable de todas la acciones tomadas con respecto a
ella, mientras esté en su poder.
• Las agencias responsables de llevar el proceso de recolección y
análisis de la evidencia digital, serán quienes deben garantizar el
cumplimiento de los principios anteriores.
Gestión de la Evidencia digital 
Existen gran cantidad de guías y buenas prácticas que nos muestran como
llevar acabo la gestión de la evidencia digital
Las guías que se utilizan tienen como objetivo identificar evidencia digital
con el fin de que pueda ser usada dentro de una investigación. Estas guías
se basan en el método científico para concluir o deducir algo acerca de la
información. Presentan una serie de etapas para recuperar la mayor
cantidad de fuentes digitales con el fin de asistir en la reconstrucción
posterior de eventos. Existen diferentes tipos de planteamientos, estos
varían dependiendo del criterio de la institución y/o personas que definen la
guía, como se define a continuación.

tipos de computadoras

Tipos de Computadores

La computadora ha cambiado en estos años, desde su invencion hasta el dia de hoy 
He aqui informacion referente a los diferentes tipos de computadoras existentes en la actualidad:
 


Computador Analógico 

Una computadora analógica u ordenador real es un tipo de computadora que utiliza dispositivos electrónicos o mecánicos para modelar el problema a resolver utilizando un tipo de cantidad física para representar otra. 
Para el modelado se utiliza la analogía existente en términos matemáticos de algunas situaciones en diferentes campos. Por ejemplo, la que existe entre los movimientos oscilatorios en mecánica y el análisis de corrientes alternas en electricidad. Estos dos problemas se resuelven por ecuaciones diferenciales y pueden asemejarse términos entre uno y otro problema para obtener una solución satisfactoria. 
Usado en contraposición a las computadoras digitales, en los cuales los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito que es usada después para modelar el problema a resolver. Hay un grupo intermedio, los computadores híbridos, en los que un computador digital es utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un computador digital, y una regla de cálculo un computador analógico. 
Los computadores analógicos ideales operan con números reales y son diferenciales, mientras que los computadores digitales se limitan a números computables y son algebraicos. Esto significa que los computadores analógicos tienen una tasa de dimensión de la información (ver teoría de la información), o potencial de dominio informático más grande que los computadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a los computadores analógicos resolver problemas que son indescifrables con computadores digitales. 
Los teóricos de la informática suelen usar el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los computadores analógicos. 
Algunos ejemplos de computadores analógicos son: 
Predictores de marea 
Integrador de agua 
Computador de datos del objetivo para submarinos 
Modelo Hidráulico de la economía del Reino Unido 
El mecanismo de Antiquitera 
La regla de cálculo
 

Computador Hibrido 


Los computadores híbridos son computadores que exhiben características de computadores analógicos y computadores digitales. El componente digital normalmente sirve como el controlador y proporciona operaciones lógicas, mientras que el componente análogo sirve normalmente como solucionador de ecuaciones diferenciales. 
En general, los computadores analógicos son extraordinariamente rápidos, puesto que pueden solucionar las más complejas ecuaciones a la rata en la cual una señal atraviesa el circuito, que generalmente es una fracción apreciable de la velocidad de la luz. Por otro lado, la precisión de computadores analógicos no es buena; se limitan a tres, o a lo más, cuatro dígitos de precisión. 
Los computadores digitales pueden ser construidos para llevar la solución de ecuaciones a una casi ilimitada precisión, pero de una manera sumamente lenta comparado a los computadores analógicos. Generalmente, las ecuaciones complejas son aproximadas usando métodos numéricos iterativos que toman grandes números de iteraciones, dependiendo de cuan buena es la "conjetura inicial" con respecto al valor final y a cuánta precisión se desea. Esta conjetura inicial es conocida como la semilla numérica para el proceso iterativo. Para muchas operaciones en tiempo real, la velocidad de tales cálculos digitales es demasiado lenta para ser de mucho uso (ej, para radares de phased array de muy alta frecuencia o para cálculos del tiempo), sin embargo, la precisión de una computadora analógica es escasa. 
Los computadores híbridos pueden ser usados para obtener un valor se 'semilla' muy bueno pero relativamente impreciso, usando un computador analógico como frontal (front-end), que entonces es alimentado en un proceso iterativo del computador digital para alcanzar el grado deseado final de precisión. Con una semilla altamente exacta de tres o cuatro dígitos, se reduce dramáticamente el tiempo total de cómputo digital necesario para alcanzar la precisión deseada, puesto que se requieren mucho menos iteraciones. 
Considere que el sistema nervioso en animales es una forma de computador híbrido. Las señales pasan a través de las sinapsis desde una célula nerviosa a la siguiente como paquetes (digitales) discretos de productos químicos, que entonces son sumados dentro de la célula nerviosa en una manera analógica construyendo un potencial electroquímico hasta que su umbral es alcanzado, con lo cual descarga y envía una serie de paquetes digitales a la siguiente célula nerviosa. Las ventajas son por lo menos triples: el ruido dentro del sistema es reducido al mínimo (y tiende a no ser aditivo), no se requiere un sistema común de tierra, y hay mínima degradación de la señal incluso si hay diferencias substanciales en la actividad de las células a lo largo de una trayectoria (solamente tienden a variar los retardos de la señal). Las células nerviosas individuales son análogas a los computadoras analógicos; las sinapsis son análogas a los computadores digitales. 
Observe que los computadores híbridos deben ser distinguidos de los sistemas híbridos. Este último puede ser no más que un computador digital equipado con un convertidor analógico-digital en la entrada y/o un convertidor digital-analógico en la salida, con el propósito de convertir las señales analógicas para el procesamiento digital ordinario y viceversa, por ejemplo, para manejar sistemas de control físicos, tales como servomecanismos.
 

Supercomputadora 

Supercomputadora o superordenador es aquella con capacidades de cálculo muy superiores a las comunes, según la época. 
Las principales son: 
Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo. 
Usuarios a la vez: hasta miles, en entorno de redes amplias. 
Tamaño:  requieren instalaciones especiales y aire acondicionado industrial. 
Dificultad de uso: solo para especialistas. 
Clientes usuales: grandes centros de investigación. 
Penetración social: prácticamente nula. 
Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Pi, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc. 
Parques instalados: menos de un millar en todo el mundo. 
Coste: hasta decenas de millones de dólares cada una de ellas. 

Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común . Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F). 
Poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 Teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10kW. Como comparación, un rack del supercomputador Blue Gene L/P consume alrededor de 40kW.
El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257kW. 
Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 Litros por minuto. 
Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente. 
En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.
 

Computadora Central 

Una computadora central o mainframe es una computadora grande, potente y costosa usada principalmente por una gran compañía para el procesamiento de una gran cantidad de datos; por ejemplo, para el procesamiento de transacciones bancarias. 
La capacidad de una computadora central se define tanto por la velocidad de su CPU como por su gran memoria interna, su alta y gran capacidad de almacenamiento externo, sus resultados en los dispositivo E/S rápidos y considerables, la alta calidad de su ingeniería interna que tiene como consecuencia una alta fiabilidad y soporte técnico caro pero de alta calidad. Una computadora central puede funcionar durante años sin problemas ni interrupciones y las reparaciones del mismo pueden ser realizadas mientras está funcionando. Los vendedores de computadoras centrales ofrecen servicios especiales; por ejemplo, si se rompe la computadora, el vendedor ejecutará las aplicaciones de su cliente en sus propias computadoras sin que los usuarios lo noten mientras que duran las reparaciones. La independencia interna de estas computadoras es tan grande que, por lo menos, en un caso conocido, los técnicos pudieron cambiar las computadoras centrales de sitio desmontándolas pieza a pieza y montándolas en otro lugar, dejando, mientras tanto, dichas computadoras funcionando; en este ejemplo, el cambio de las computadoras centrales de un sitio a otro se produjo de manera transparente. 
A menudo, las computadoras centrales soportan miles de usuarios de manera simultánea que se conectan mediante terminal como el centro de operaciones de muchos terminales virtuales, puede ofrecer la potencia necesaria para que dichas computadoras operen de manera eficiente, pero también la flexibilidad de las redes de computadoras personales. 
Actualmente, las computadoras centrales de IBM dominan el mercado, junto con Hitachi, Amdahl y Fujitsu. Los precios no suelen ser menos de varios cientos de miles de dólares. 

La distinción entre supercomputadores y computadoras centrales no es muy sencilla, pero generalmente se puede decir que las supercomputadoras se centran en los problemas limitados por la velocidad de cálculo mientras que las computadoras centrales se centran en problemas limitados por los dispositivos de E/S y la fiabilidad. En consecuencia: 
Las supercomputadoras suelen explotar paralelismos masivos, a menudo con miles de procesadores, mientras que las computadoras centrales tienen un solo o un pequeño número de procesadores (como mucho varias docenas). 
Debido al paralelismo visible al programador, las supercomputadoras son muy complicadas de programar; en las computadoras centrales, el limitado paralelismo (si existe) está normalmente escondido del programador. 
Las supercomputadoras son optimizadas para cálculos complicados que tienen lugar sobre todo en la memoria, mientras que las computadoras centrales son optimizadas para cálculos simples que implican grandes cantidades de datos externos a los que se accede desde bases de datos. 
Las supercomputadoras suelen dedicarse a la ciencia y al ejército, mientras que las computadoras centrales suelen dedicarse a las empresas y las aplicaciones administrativas del gobierno.
 

Minicomputadora 

Las Minicomputadoras, actualmente más conocidos como servidores, es una clase de computadoras multiusuario, que se encuentran en el rango intermedio del espectro computacional; es decir entre los grandes sistemas multiusuario (mainframes), y los más pequeños sistemas monousuarios (microcomputadoras, computadoras personales, o PC). 
El nombre comenzó a hacerse popular a mediados de la década de los 60s, para identificar un tercer tipo de computadoras, diseñadas gracias a dos innovaciones fundamentales: 
1- El uso de los circuitos integrados (que impactó directamente en la creación de equipos con tamaños menores al mainframe), y 
2- Las mejoras en el diseño de la memoria RAM, que permitieron una mayor disponibilidad de recursos. 
Posteriormente, durante los años 80s el minicomputador por excelencia fue la línea AS-400 de IBM. Sin embargo, más recientemente se han fabricado equipos servidores muy poderosos; diseñados por fabricantes como la misma IBM, HP. 
Así pues, la expansión en el uso de servidores tuvo lugar debido al mayor coste del soporte físico basado en [[macropocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los mainframes y los terminales fueron remplazados por computadoras personales interconectadas entre sí, conectadas con un servidor. 
El movimiento fue facilitado no solo por el multiprocesador sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, GNU/Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows también incluye versiones de servidor que soportan multitarea y cientos de funciones para servidores. 
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.
 

Microcomputadoras 

Una microcomputadora es una computadora que tiene un microprocesador (unidad central de procesamiento). 
Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971. 
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se le aplica a la computadora que es ultra portatil para las personas. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes. 
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo. 
Sus principales características son: 
Velocidad de procesamiento: Decenas de millones de instrucciones por segundo. 
Usuario a la vez: Uno (Por eso se llaman Personales). 
Su uso más común es para propósitos personales. 
Tamaño: Pequeña, o portátiles. 
Facilidad de uso: fáciles de usar. 
Clientes usuales: Pequeñas empresas, oficinas, escuelas, 
Penetración social: Mediana. 
Impacto social: Alto, en los países industrializados. 
Parque instalado: Cientos de millones en el mundo. 
Costo: Pocos cientos de dólares estadounidenses. 
Peso: 10 kg aproximadamente (computadoras de escritorio).
 

Computadora de Escritorio 

Computadora de escritorio (en Hispanoamérica) u ordenador de sobremesa (en España) es una computadora personal que es diseñada para ser usada en una ubicación estable, como un escritorio -como su nombre indica-, a diferencia de otros equipos personales como las computadoras portátiles. 
Puede referirse a dos tipos de computadoras: 
Computadoras de uso doméstico en hogares. 
Computadoras de oficina utilizadas por los empleados de una empresa. 
Las computadoras de uso doméstico suelen estar dedicadas al entretenimiento (multimedia, videojuegos, etc.) y a tareas domésticas (contabilidad casera, escritos, etc.). Estas computadoras carecen de gestión y mantenimiento ya que estas tareas son de poca importancia para un particular; sin embargo, la situación es bien distinta en el ámbito empresarial, en el cual la computadora de escritorio es la herramienta de trabajo por excelencia; se trata de un elemento muy importante para la marcha de un negocio. El uso que se hace de las computadoras de escritorio está relacionado normalmente con las tareas productivas y administrativas de los empleados: creación de informes, presentaciones, memorandos (véase suite ofimática), comunicación con otras empresas, contabilidad, gestión de tareas, etc.; por este motivo, la computadora de escritorio debe ser adecuadamente gestionada en el ámbito empresarial. 
Obsérvese que mientras un particular debe preocuparse normalmente de una o dos computadoras únicamente, una empresa puede tener como activo un parque de cientos o miles de computadoras personales. En este sentido existen dos actuaciones complementarias: 
Mantenimiento hardware: La computadora de escritorio, como cualquier máquina, está sujeta a defectos y averías. La incidencia de una avería en un usuario doméstico suele reducirse a una mera molestia. En el ámbito empresarial el impacto de una avería supone como poco, la pérdida de tiempo de trabajo de un empleado. Pero existen casos donde hay pérdida monetaria y de imagen. Generalmente, en puestos de trabajo de atención al público; por ejemplo, en las ventanillas de una oficina bancaria, o en el puesto de trabajo de un broker o Agente de bolsa. 
La garantía de mantenimiento de una computadora de escritorio suele durar de dos a cinco años; esto obliga a las empresas a renovar su parque de computadoras muy frecuentemente. 
Mantenimiento software: Todas las computadoras necesitan software para funcionar. La instalación de software en miles de equipos repartidos por una oficina o diversas sedes no es nada trivial. Además, esta actividad es prácticamente obligatoria en la empresa. Las actualizaciones de software y los parches de seguridad son necesarios para evitar las mismas consecuencias que tendría una avería hardware. Los problemas típicos de una empresa respecto al software de escritorio son: 
La presencia de software "pirata" o no autorizado. Esto puede derivar en serios perjuicios económicos, además del malfuncionamiento del software corporativo. 
Incompatibilidades de las aplicaciones corporativas con el hardware o el sistema operativo. Cada computadora puede contar con una versión distinta de sistema operativo, controladores, etc. 
Descontrol de las licencias de software comercial: esto involucra tanto software autorizado, e incluso pagado, pero no utilizado, como software que no se usa porque faltan licencias. La renovación y expiración de licencias también es un problema a considerar. 
La configuración del software y del sistema operativo para cada usuario. 
La distribución e instalación de software: tanto corporativo como comercial. 
Un error típico de las empresas es desarrollar (o comprar) software sin saber qué características tienen las computadoras personales donde debe ser usado; por ejemplo, es frecuente desarrollar software para Windows XP y una versión concreta de Internet Explorer; cuando llega el momento de la respectiva instalación resulta que parte del parque de computadoras aún tiene instalado Windows 95 o una versión antigua del navegador. 

Existen diversas herramientas software que facilitan la gestión de un parque de computadoras de escritorio; cabe destacar: 
Herramientas de inventariado: automáticamente informan sobre el hardware y el software que, efectivamente, se encuentra en cada puesto de trabajo. Esencial para la toma de decisiones. 
Herramientas de distribución de software: permiten la instalación y actualización de software sin necesidad de presencia física de un técnico, gracias a las redes de telecomunicaciones. 
Imágenes de disco: facilitan la instalación de una nueva computadora con el mínimo esfuerzo.
 

Computadora Personal 

Una computadora personal u ordenador personal, también conocida como PC (sigla en inglés de personal computer), es una microcomputadora diseñada en principio para ser usada por una sola persona a la vez. (En el habla habitual, las siglas PC se refieren más específicamente a la computadora compatible IBM PC.) Una computadora personal es generalmente de tamaño medio y es usado por un solo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario). 
Una computadora personal suele estar equipada para cumplir tareas comunes de la informática moderna, es decir permite navegar por Internet, escribir textos y realizar otros trabajos de oficina o educativos, como editar textos y bases de datos. Además de actividades de ocio, como escuchar música, ver videos, jugar, estudiar, etc. 
En cuanto a su movilidad podemos distinguir entre computadora de escritorio y computadora portátil. Dentro del conjunto de las computadoras portátiles están las llamadas computadoras portátiles de escritorio.
 

Computadora Domestica 

Se denomina computadora doméstica u ordenador doméstico a la segunda generación de computadoras, que entraron en el mercado con el nacimiento del Altair 8800 y se extiende hasta principios de la década de 1990. Esto engloba a todas las computadoras de 8 bits (principalmente con CPU Zilog Z80, MOS Technology 6502 o Motorola 6800) y a la primera ola de equipos con CPU de 16 bits (principalmente Motorola 68000 e Intel 8086 y 8088). El término proviene de que llevaron la computadora de la industria al hogar. Aunque se suele excluir de ese grupo a los compatibles IBM PC, lo cierto es que hasta el triunfo definitivo y la adopción del término "computadora personal", tuvieron que competir con las líneas patrocinadas por Atari, Commodore y Apple Computer, por lo que algunos optan por incluir en la categoría de doméstico a los modelos más significativos de 16 bits, o al menos a los compatibles PC orientados al mismo mercado como la gama Tandy. 
En cierta manera, guardando cierta similaridad con las nuevas formas animales aparecidas en el periodo cámbrico, una gran cantidad de máquinas de todas las clases, incluyendo rarezas como el ordenador Jupiter Ace en lenguaje Forth aparecían en el mercado y desaparecían de nuevo. Algunos tipos de computadoras permanecieron durante más tiempo, otros evolucionaron tratando de mantener la compatibilidad (existen, por ejemplo, tarjetas de emulación Apple II para los primeros Mac). Sin embargo, al final de la década la mayoría fueron eliminados por la computadora personal compatible con IBM y las generaciones más nuevas de videoconsolas porque ambas utilizaban sus propios formatos incompatibles. La revolución IBM fue provocada en 1981 por la salida de la computadora personal de IBM 5150, el IBM PC. 

Pese a ello, siguen existiendo grupos de usuarios que no renuncian a usar y mejorar sus viejos equipos dotándoles de las posibilidades modernas como disco duro o conexión a Internet. Aunque todas son muy activas (teniendo en cuenta la cada vez menor base de usuarios), destacan por mérito propio la de usuarios de MSX en los 8 bits y la de Commodore Amiga en los 16 bits (calificados por un redactor de MacByte como las aldeas de irreductibles galos que resisten el asedio de las legiones Wintel). Asimismo han dado nacimiento a una serie de aficiones que se suelen englobar bajo el término RetroInformática. 
Una de las más conocidas es la emulación, normamente por software, pero también por hardware, de estas viejas computadoras y consolas en todo tipo de dispositivos: modernas computadoras personales, consolas, PDAs, teléfonos móviles, reproductores de DVD decodificadores de TDT, cámaras fotográficas digitales, etc. 
Muchas de estas computadoras eran superficialmente similares y tenían usualmente un teclado de fabricación barata integrado en la carcasa que albergaba debajo la placa madre con la CPU, una fuente de alimentación externa y como unidad de visualización más común una televisión casera. Muchas utilizaban casetes de audio compactos como mecanismo (notoriamente poco fiable) de almacenamiento de datos ya que las unidades de disco flexible eran muy caras en aquella época. Su bajo precio era común a la mayoría de las computadoras. 
Aparte de casos como CP/M y OS-9, la mayoría tienen en ROM las rutinas básicas (que podrían considerarse su sistema operativo) junto con el lenguaje BASIC. Es lo que hoy suele conocerse como el firmware de los periféricos (una unidad de disco o lectora de DVD puede llevar integrada en su circuitería microcontroladores precisamente basados en las CPUs de estos equipos).
 

Computador MultiSeat 

Multiseat o multipuesto, también llamado multiterminalmulti-stationmultihead, es la configuración especial de una computadora para poder soportar múltiples usuarios trabajando al mismo tiempo, cada uno con su propio monitor, teclado, ratón y, opcionalmente, con su propia tarjeta de sonido. 

Una configuración multiterminal tiene importantes ventajas, entre ellas: 
Ahorro de espacio: (solo se necesita un computador para varias personas). 
Ahorro en costos: Ahorro en costos en computadores y en consumo de energía (hasta un 80%). 
Ahorro en licencias de software. 
Rendimiento: Mejor aprovechamiento de los recursos de computación. 
Mantenimiento: Menor costos de mantenimiento. 

Es importante tener un ordenador con una buena placa base, una CPU potente y con buena cantidad de memoria (512 MB o más). Esto dependerá del número de puestos que se deseen conectar. 
Para que varios usuarios puedan trabajar en un ordenador se necesitan conectar a éste varios monitores, teclados y ratones. Por ejemplo, para formar una multiterminal de cuatro estaciones (para 4 usuarios), se requieren 4 monitores, 4 teclados y 4 ratones. 
Cada monitor necesita ser conectado a una salida de video. Algunas tarjetas de video tienen múltiples salidas y soportan varios monitores. Adicionalmente, se pueden instalar en el ordenador varias de estas tarjetas de video, pero la mayoría de las máquinas modernas solo tienen un slot PCIe o AGP, así que, en general, estas tarjetas deberán ser PCI. 
La mayoría de los ordenadores tienen solo un conector PS/2 para el teclado y otro para el ratón, así que para conectar varios teclados y ratones se debe hacer mediante conectores USB y HUBs USB. 
En resumen: 
Ordenador con una placa base, un CPU potente, y con una buena cantidad de memoria RAM. 
Disco duro. 
Varias placas de video PCI/AGP/PCI-E. 
Varios teclados PS/2 / USB. 
Varios ratones PS/2 / USB. 
Opcionalmente, varias tarjetas de sonido. 
Distribución de GNU/Linux favorita. 
Xorg 6.9 o superior. 

Para los sistemas operativos Windows 2000, XP y Vista, existen varios productos comerciales que permiten la implementación de configuraciones multiseat para dos o más puestos de trabajo. Dentro de estos productos se encuentran ASTER, BeTwin, y SoftXpand.
 

Computadora Portatil de Escritorio 

Una computadora portátil de escritorio (conocida como ordenador portátil de sobremesa en España) o desknote es un híbrido entre una computadora de escritorio y una computadora portátil tradicional. 
ECS introdujo la computadora portátil de sobremesa al mundo de las computadoras a finales de 2001.
Una computadora portátil de sobremesa es una computadora portátil con la tecnología y especificaciones (incluyendo potencia y velocidad) más recientes de computadoras de escritorio; combina la unidad principal de computadora (p.e. placa madre, CPU, disco duro, puertos externos, etc.) con una pantalla de cristal líquido (LCD); por tanto, una computadora portátil de escritorio generalmente tiene un tamaño similar a un portátil grande, aunque a diferencia de éstos, los desknotes requieren un teclado y un mouse externo. 
En la actualidad, una computadora de escritorio puede soportar cualquier tipo de UCP, memoria, gráfico; por lo tanto, una computadora portátil de escritorio debería poder ofrecer el mismo tipo de soporte que el correspondiente a una computadora de escritorio. Una computadora de escritorio presenta algunas ventajas: 
Tradicionalmente, un usuario de una computadora portátil tenía que esperar a que se lanzara una especificación similar a la de una computadora de 9 a 12 meses. Con las computadoras portátiles de escritorio, se reduce esta espera. Se puede disfrutar de la misma tecnología, sin esperar tanto tiempo y mantener cierta portabilidad utilizando un producto para computadoras de escritorio. 
Tiene la misma cantidad de puertos o más que una computadora de escritorio. La computadora portátil de escritorio tiene entrada de PCMCIA, como la tienen la mayoría de las computadoras portátiles para el módem, la LAN (tarjeta Ethernet) y la salida de televisión. La computadora portátil de escritorio también tiene puertos USB, WiFi y bluetooth para expansiones y conexiones como DVD-RW, impresora, teléfonos móviles y para otros dispositivos móviles. 
La actualización y la sustitución de componentes es más fácil que con una computadora portátil tradicional para: UCP, memoria RAM, unidades de disco duro, placas madre, monitores LCD y chasis. Todas ellas pueden ser cambiadas por el usuario, a diferencia de los portátiles. 
Puede incluir una « batería externa » para funcionar de la misma manera que una computadora de escritorio tradicional y un bastidor vacío para una futura batería interior. 
Tiene las mismas ventajas de una computadora portátil: las computadoras portátiles de escritorio deben tener la ventaja de la movilidad de una computadora portátil, deben ser transportables y mucho más ligeras y pequeñas que una computadora de escritorio. Las computadoras portátiles de escritorio son ideales para aquellos que quieran tener una computadora personal de gran potencia y transportable para usarla en lugares con muy poco espacio. 
Uno de sus componentes es un panel de pantalla grande, claro y plano (la pantalla ocupa pocos espacio sin sacrificar el área de visión). 
Puede poseer bastidores modulares extraíbles (los cuales no están presentes en una computadora de escritorio). 
Consume menos energía. 
Ocupa poco espacio y, por lo tanto, permite disfrutar de más espacio libre. 
Pesa poco. 
Son necesarios pocos cables para su funcionamiento por lo que la conexión de dispositivos se hace más fácil que con un ordenador de sobremesa tradicional. 

Entre los fabricantes de desknotes, se incluyen: 
Apple: iMac G5 
Dell 
ECS 
Hewlett-Packard 
Sony 
Toshiba 
Clevo 
Hitachi
 

Tablet PC 

Un Tablet PC es una computadora portátil con la que se puede interactuar a través de una pantalla táctil o Multitáctil. El usuario puede utilizar una pluma stylus o los dedos para trabajar con el ordenador sin necesidad de teclado físico, o mouse. 

Esta modalidad de computadora portátil ha supuesto un avance significativo en la aplicación de los estudios en lingüística computacional. 
Existen modelos de tablet pc que sólo aportan la pantalla táctil a modo de pizarra, siendo así muy ligeros. También hay ordenadores portátiles con teclado y mouse, llamados convertibles, que permiten rotar la pantalla y colocarla como si de una pizarra se tratase, para su uso como Tablet PC. 
Utilizan procesadores móviles, que consumen menos energía. El software especial que nos proporciona el sistema operativo nos permite realizar escritura manual, tomar notas a mano alzada y dibujar sobre la pantalla. Así, es útil para hacer trabajos de campo. 
Los dispositivos más abundantes son los de 7' y los de 10'. Los primeros son los más facilmente transportables, sin embargo, los segundos son más versátiles dado su mayor tamaño de pantalla, por lo que podrán utilizarse para desarrollar un mayor número de funciones con ellos. A modo de ejemplo, ambos tamaños de pantalla permiten la lectura de un libro electrónico, pero los dispositivos de 10', además permiten visualizar comics con cierta comodidad. Así pues, dependiendo del uso que se pretenda dar al dispositivo se optará por uno de mayor o menor tamaño. Para utilizar a diario leyendo un libro durante trayectos en transporte público, el modelo óptimo para la mayoría de usuarios sería el del entorno de las 7 pulgadas. Sin embargo, para viajes largos de varios días de duración, y con la pretensión de utilizar el dispositivo para funciones más diversas, el dispositivo preferible sería uno del entorno de las 10 pulgadas. 
Algunas empresas ya han empezado a comercializar tablets con pantalla LCD de mas de 14”, que puede rotar 180º sobre si misma, y una resolución XGA de 16 millones de colores. Este sistema de presentación esta pensado para visualizar revistas, comics y periodicos. Asimismo, al conectar la tableta a un teclado estándar (mediante el puerto USB) se convierten en un nuevo instrumento con el que el usuario puede interactuar mediante un puntero, reuniendo en un solo equipo las prestaciones de un Portátil y un PDA. 
Por otro lado, algunos portátiles incorporan Jack de 3.5 o HDMI para poder ver videos en un televisor o monitor. 

Comienzan a surgir cada vez más tabletas que integran teléfono móvil (denominadas tabletas 3G). En este grupo se integran Samsung Galaxy Tab, ZTE V9, Huawei S7... 
Por lo general incorporan una pantalla de 7 pulgadas. 

Computador Subportatil 

Una subportátil (también conocida como UMPC, Ultra Mobile PC, es una computadora portátil más pequeña y liviana, con la mayoría de sus características. La denominación suele aplicarse a equipos que operan versiones completas de sistemas operativos de escritorio como Windows o GNU/Linux, en vez de sistemas específicos como Windows CE o Palm OS. Intel ha re-introducido el término subportátil para referirse a este tipo de computadoras, dado que se utilizan casi exclusivamente para navegar por Internet; sin embargo, "Netbook" (la terminología anglosajona para subportátil) fue registrado como marca por la empresa Psion en los Estados Unidos para comercializar computadoras portátiles.1 También suele llamárselas con la sigla UMPC (Ultra-Mobile PC o PC Ultra Móvil) aunque éste es un término más abarcador que incluye a las computadoras de menor tamaño como handhelds y que no necesariamente ejecutan software de escritorio. 

Las subportátiles son más pequeñas que las portátiles tradicionales pero más grandes que las palmares. Generalmente poseen pantallas de menor tamaño, de entre 18 y 34 centímetros ca., y un peso que varía desde menos de uno hasta dos kilogramos. El ahorro en peso y tamaño generalmente se obtiene omitiendo algunos puertos o unidades ópticas, además de utilizar chipsets de menor potencia. 
Los sistemas operativos usados son Windows XP Home y Windows 7 Starter de Microsoft, el Android de Google Inc. y otros sistemas operativos basados en GNU/Linux, entre los cuales varios de ellos han sido especialmente programados para su uso en estos ordenadores, como el Ubuntu Netbook Remix. Sin embargo, las subportátiles no son lo suficientemente potentes para tareas como la edición de videos o para juegos de gráficos pesados, pero con ciertos programas emuladores de sintesis de imágenes y procesos de aligeramiento pueden ejecutarlos en un rango de calidad bajo-medio, y generalmente no tienen unidades opticas (aunque se les puede conectar una unidad externa). 
Un término derivado del inglés netbook (subportátil) es nettop, que identifica a las computadoras que tienen características similares de tamaño, prestaciones y precio, pero no son portátiles, sino de escritorio. 
Pueden costar menos de 300 dólares estadounidenses. El bajo costo hace que Microsoft no pueda cobrarle lo mismo por el software a los fabricantes para computadoras- según dice cobra menos de 15 dólares por subportátil-. Han ganado popularidad, durante la actual recesión, pues son baratas y el impulso de hacerla más atrayentes por los fabricantes de PC, como Hewlett-Packard (HP), Dell, Acer y Lenovo, para impulsar las ventas. 
Este tipo de computadora nunca ha gozado de un gran éxito hasta la introducción en el año 2007 de la ASUS Eee PC. Se afirma también que han tomado la idea de la iniciativa de Nicholas Negroponte, One Laptop Per Child (una portátil por niño). 
Se estima que para 2011 más de 50 millones de subportátiles estarán en circulación.
 

Computador PC Ultra Movil 

El Ultra Mobile PC (UMPC), o PC Ultra Móvil en español, previamente conocido por su nombre código Project Origami (Proyecto Origami), es un Tablet PC de factor de forma pequeño. Fue un ejercicio de desarrollo conjunto entre Microsoft, Intel, y Samsung, entre otros. Ofrece el sistema operativo Windows XP Tablet PC Edition 2005 o Windows Vista Home Premium Edition, o Linux y tiene un microprocesador Intel Pentium de voltaje ultra bajo, funcionando en el rango de 1 GHz. La portabilidad de la PC Ultra Móvil puede ser atractivo a los viajeros internacionales de negocios y a los "viajeros con mochila" (backpackers) globales, aunque no sea tan cómodo como un pc de sobremesa.

Características 

Los PC Ultra Móbiles tienen un tamaño de pantalla máximo de 20 cm (alrededor de 7 pulgadas), la pantalla es sensible al tacto (touch screen), tiene una resolución mínima de 800 x 480 pixels, y son capaces de ejecutar con normalidad cualquier variante de Linux, Windows XP y Vista. Existen UMPC con teclado o sin este por un precio que ronda de los 200 a 700 euros según configuraciones. 
a) Sin Teclado: La pantalla suele ser de 7 pulgadas y táctil, incluyen un lápiz óptico, procesador de 1GHz o más y batería para unas 2 horas de funcionamiento. Para manejar más facilmente el sistema operativo se incluye un paquete de software conocido como el Touch Pack Interface, que hace que la interfaz del sistema se adecue al uso del lápiz así como la mano, la memoria de almacenamiento puede ser Flash o de Disco Duro(de 8 a 100Gb), un puerto USB. Normalmente incorporan cámara de vídeo y foto de varios megapíxeles o VGA para videoconferencias, micrófono, audio mono o stereo. Wi-Fi, Bluetooth o Infrarrojos para el intercambio de archivos con otros dispositivos y conectarse a Internet sin cables y desde 128MiB a 1GiB de RAM. La tarjeta gráfica (DirectX 8, 9 o 10) suele ser del mismo fabricante que el procesador (Intel, Via...). Los más modernos incluyen GPS, televisión digital TDT y lector de huellas dactilares. 
b) Con teclado: Posee las mismas características anteriores pero incluye un teclado deslizante del mismo tamaño que el cuerpo del aparato, este añadido permite a los fabricantes incluir puertos USB adicionales, un pequeño lector de tarjetas Secure Digital SD e incluso existen modelos con salida VGA para conectarlo a un monitor más grande o a una pantalla plana de televisión, muy pronto llevarán HDMI (Puerto multimedia de alta definición). 
Los UMPC están en constante evolución, las ventas de estos aparatos aumentan debido a las utilidades que se le pueden dar. 
Los UMPC tiene suficiente capacidad de proceso para soportar la edición de texto, audio, video, así como para su uso en videojuegos, además de tener un buen soporte para navegar por Internet, y también para otras aplicaciones de comunicación y redes. Se puede usar el UMPC como teléfono móvil gracias a Skype u otras tecnologías. 
Pero no todo es tan bonito como lo presento, la escasa capacidad de ampliación de estos dispositivos hace que en poco tiempo se "quede pequeño" y tengas que recurrir a memorias USB o tarjetas SD u otro tipo. Solo son unos pocos los fabricantes que permiten modificar el disco duro. Este problema para el usuario se convierte en una labor comercial para los fabricantes, ya que si deja de funcionar algún componente, tengas que comprar uno nuevo. 

Ya hay disponible en el mercado verdaderas obras de arte tecnológicas en material UMPC, algunos productos como: 
Ahtec Tiny UMPC X70GT 
Asus R2E Windows Vista UMPC 100 GB 
Samsung Q1 Ultra UMPC 600Mhz 
Acer Aspire One 
Fujitsu U810 y U820 
Ben NanoNote 
Vaio Sony Serie P
 

Computador PDA 

Un Computador PDA (del inglés personal digital assistant (asistente digital personal)), también denominado ordenador de bolsillo, es una computadora de mano originalmente diseñado como agenda electrónica (calendario, lista de contactos, bloc de notas y recordatorios) con un sistema de reconocimiento de escritura. 
Hoy en día (2010) estos dispositivos, pueden realizar muchas de las funciones que hace una computadora de escritorio (ver películas, crear documentos, juegos, correo electrónico, navegar por Internet, reproducir archivos de audio, etc.) pero con la ventaja de ser portátil. 

Actualmente, hoy en día, un PDA típico tiene al menos una pantalla táctil para ingresar información, una tarjeta de memoria para almacenarla y al menos un sistema de conexión inalámbrica, ya sea infrarrojo, Bluetooth o WiFi. El software requerido por un PDA incluye por lo general un calendario, un directorio de contactos y algún programa para agregar notas. Algunos PDAs también contienen soporte para navegar por la red y para revisar el correo electrónico. 

Hoy en día tenemos los siguientes sistemas operativos y equipos competidores: 
Dispositivos con Android, sistema operativo de Google, basado en el núcleo Linux, utilizado por HTC y actualmente Motorola entre otros, es el nuevo fuerte competidor del iPhone, tiene la gran ventaja de ser Open Source. 
Dispositivos con Windows Mobile, sistema operativo usado principalmente por HTC como el HTC Touch Diamond o el HTC Touch HD, principales competidores del iPhone, ya que igualan o superan sus características. 
Dispositivos con iPhone OS actualmente iOS4, son los nuevos y revolucionarios dispositivos de Apple, el iPhone, iPhone 3G, iPhone 3GS, iPhone 4 y el iPod touch. 
Dispositivos Palm OS, hoy en día mantenido casi en solitario por Palm, pero que hasta hace poco ha tenido importantes fabricantes como Sony. 
Dispositivos Pocket PC con HP como líder de fabricantes acompañado por otras empresas de informática como Dell o Acer, a quienes se han incorporado los fabricantes de Taiwán como High Tech Computer que van copando el mercado del teléfono inteligente con sus marcas propias (como Qtek) o fabricando para terceros y, sobre todo, operadores de telefonía móvil. 
Research In Motion con sus Blackberry, más propiamente teléfono inteligentes que PDAs, pero que han copado una parte importante del mercado corporativo a la vez que incorporaban prestaciones de PDA. 
Dispositivos Symbian OS presente en las gamas altas de teléfonos móviles de Nokia y Sony Ericsson.
Dispositivos Linux liderado por las Sharp Zaurus. 
Y por último, multitud de "PDA de juguete", desde los verdaderos juguetes infantiles como los de VTech (líder del boyante mercado del ordenador infantil) a los aparatos baratos fabricados en China, pero que, aparte del reconocimiento de escritura, incorporan todas las prestaciones básicas de las primeras PDA (incluyendo cámaras digitales básicas y comunicaciones con las PC). 
Un tipo especial de PDA son las denominadas PDT (siglas en inglés de portable data terminal, que significa "terminal de datos portátil", equipos dirigidos al uso industrial (por ejemplo, como lector móvil de código de barras, código de puntos o etiquetas de radiofrecuencia), en la construcción y militar. Los principales fabricantes son: 
Symbol Technologies 
Intermec 
DAP Technologies 
Hand Held Product


SmartPhone 

El teléfono inteligente (smartphone en inglés) es un término comercial para denominar a un teléfono móvil que ofrece más funciones que un teléfono celular común. 
Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término "Inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil (lo más habitual, denominándose en este caso "teléfono móvil táctil", o simplemente el sistema operativo móvil que posee, diferenciando su uso mediante una exclusiva disposición de los menúes, teclas, atajos, etc. 
El completo soporte al correo electrónico parece ser una característica indispensable encontrada en todos los modelos existentes y anunciados en 2007, 2008, 2009 y 2010. Casi todos los teléfonos inteligentes también permiten al usuario instalar programas adicionales, normalmente inclusive desde terceros, pero algunos vendedores gustan de tildar a sus teléfonos como inteligentes aun cuando no tienen esa característica. Algunos ejemplos de teléfonos denominados inteligentes son: Serie MOTO Q de Motorola, Nokia series E y series N, BlackBerry, Samsung Wave, iPhone, Todos los que tienen el sistema operativo Android como por ejemplo: Google Nexus One, Motorola Milestone y Sony Ericsson Xperia Arc 
Entre otras características comunes está la función multitarea ecepto todos los Iphone anteriores a iOS 4.0 , el acceso a Internet via WiFi, a los programas de agenda, a una cámara digital integrada, administración de contactos, acelerómetros y algunos programas de navegación así como ocasionalmente la habilidad de leer documentos de negocios en variedad de formatos como PDF y Microsoft Office.
 

Computador a traves de cliente 

Comparación en tamaño entre un cliente liviano y un cliente pesado. El cliente híbrido pudiera ser de cualquier tamaño entre estos dos. 

El cliente es una aplicación informática o un computador que accede un servicio remoto en otro computador, conocido como servidor, normalmente a través de una red de telecomunicaciones. 
El término se usó inicialmente para los llamados terminales tontos, dispositivos que no eran capaces de correr programas por sí mismos, pero podían conectarse e interactuar con computadores remotos por medio de una red y dejar que éste realizase todas las operaciones requeridas, mostrando luego los resultados al usuario. Se utilizaban sobre todo porque su coste en esos momentos era mucho menor que el de un computador. Estos terminales tontos eran clientes de un computador mainframe por medio del tiempo compartido. 
Actualmente se suelen utilizar para referirse a programas que requieren específicamente una conexión a otro programa, al que se denomina servidor y que suele estar en otra máquina. Ya no se utilizan por criterios de coste, sino para obtener datos externos (por ejemplo páginas web, información bursatil o bases de datos), interactuar con otros usuarios a través de un gestor central (como por ejemplo los protocolos bittorrent o IRC), compartir información con otros usuarios (servidores de archivos y otras aplicaciones Groupware) o utilizar recursos de los que no se dispone en la máquina local (por ejemplo impresión) 
Uno de los clientes más utilizados, sobre todo por su versatilidad, es el navegador web. Muchos servidores son capaces de ofrecer sus servicios a través de un navegador web en lugar de requerir la instalación de un programa específico. 

Cliente pesado 
Un cliente pesado tiene capacidad de almacenar los datos y procesarlos, pero sigue necesitando las capacidades del servidor para una parte importante de sus funciones. Un cliente de correo electrónico suele ser un cliente pesado. Puede almacenar los mensajes de correo electrónico del usuario, trabajar con ellos y redactar nuevos mensajes, pero sigue necesitando una conexión al servidor para envíar y recibir los mensajes. 
Cliente híbrido 
Un cliente híbrido no tiene almacenados los datos con los que trabaja, pero sí es capaz de procesar datos que le envía el servidor. Muchos programas de colaboración almacenan remotamente los datos para que todos los usuarios trabajen con la misma información, y utilizan clientes híbridos para acceder a esa información. 
Cliente liviano 
Un cliente liviano no tiene capacidad de procesamiento y su única función es recoger los datos del usuario, dárselos al servidor, y mostrar su respuesta. Los primeros navegadores web eran clientes livianos, simplemente mostraban las páginas web que solicitaba el usuario. Actualmente, el uso de lenguajes de script, programas Java y otras funciones de DHTML dan una capacidad de procesamiento a los navegadores, por lo que se consideran clientes Híbridos.
 

Computador de Sistema Embebido 

Un sistema embebido o empotrado es un sistema de computación diseñado para realizar una o algunas pocas funciones dedicadas frecuentemente en un sistema de computación en tiempo real. 


Sistema embebido de visión: para cámaras IEEE 1394 y GigE Vision 

Los sistemas embebidos se utilizan para usos muy diferentes a los usos generales a los que se suelen someter a las computadoras personales. En un sistema embebido la mayoría de los componentes se encuentran incluidos en la placa base (la tarjeta de vídeo, audio, módem, etc.) aunque muchas veces los dispositivos no lucen como computadoras, por ejemplo relojes de taxi, registradores, controles de acceso entre otras múltiples aplicaciones. 
Por lo general los sistemas embebidos se pueden programar directamente en el lenguaje assembler del microcontrolador incorporado sobre el mismo o bien, utilizando algún compilador específico, suelen utilizarse lenguajes como C, C++ y hasta en algunos casos BASIC. 
Dos de las diferencias principales son el precio y el consumo. Puesto que los sistemas embebidos se pueden fabricar por decenas de millares o por millones de unidades, una de las principales preocupaciones es reducir los costes. Los sistemas embebidos suelen usar un procesador relativamente pequeño y una memoria pequeña para reducir los costes. Se enfrentan, sobre todo, al problema de que un fallo en un elemento implica la necesidad de reparar la placa íntegra. 
Lentitud no significa que vayan a la velocidad del reloj. En general, se suele simplificar toda la arquitectura de la computadora para reducir los costes. Por ejemplo, los sistemas embebidos emplean a menudo periféricos controlados por interfaces síncronos en serie, que son de diez a cientos de veces más lentos que los periféricos de una computadora personal normal. Los primeros equipos embebidos que se desarrollaron fueron elaborados por IBM en los años 1980. 
Los programas de sistemas embebidos se enfrentan normalmente a problemas de tiempo real.
 

Computador Nettop 

El término Nettop identifica a los ordenadores de escritorio de bajo costo, bajo consumo y reducidas dimensiones. La denominación proviene de combinar las palabras en inglés netbook (ordenador portátil) y desktop computer (ordenador de sobremesa). Están orientados a la navegación y la ofimática, por lo que sus prestaciones son muy reducidas, aunque suficientes para estas funciones. También suelen usarse como centros multimedia, conectados por ejemplo a un televisor. 
Frente al portátil tiene la ventaja de que tiene mayor posibilidad de actualizar el hardware.
 

Computador Panel PC 

Imagen del Kontron Nano Client Touch Panel PC 


Imagen y imagen interna de un Panel PC 

El Panel PC es el Nuevo concepto en computadores personales (PC), integran todo lo que existe en las torres dentro del monitor, dándonos espacio y quitando del medio todos los cables que salen desde y hacia la torre. 
Lo único que tenemos es un monitor integrado, ademas donde se enchufa la corriente, el teclado y mouse. 
Los Panel PC son fácilmente transportables, reducen espacio, y consumen menos energía que un computador convencional 

Caracteristicas 
Pantalla sensible al Tacto: El monitor es sensible al tacto, se podrá utilizar el dedo para realizar selecciones, navegar por internet, ingresar datos en un teclado virtual, con simplemente tocar el monitor. 
Mas económicos que comprar una torre y monitor.: Los panel PC son mas económicos que comprar por separado la torre, el monitor y los componentes adicionales como ser webcam, parlantes, micrófono, tarjeta WIFI, grabadora de DVD. Todo viene integrado dentro del monitor 
Reducen Espacio: Con solo un monitor, el teclado y el mouse, los Panel PC nos dejan espacio extra, no mas cables desde y hacia la torre. 

Especificacion Tecnica: 
 Monitor Touchscreen (Sensible al tacto) 
 Procesador 
 Memoria RAM tipo DDR2 o ddr3 
 Disco Duro tipo SATA, USB o SSD 
 Gráficos Integrados G31-M 
 Reproductor y Grabador de DVD 
 LAN 10/100 ; WIFI AGN Intel 
 Puertos USB, Salida VGA 
 Puerto para Cámara WEB, Parlantes y Micrófonos integrados en monitor