domingo, 22 de marzo de 2009

Lista de archivos P2P no recomendables

Aplicaciones INFECTADAS

Las siguientes aplicaciones no deberían ser instaladas nunca, ya que poseen o instalan programas espías y/o adwares:

Ares (tiene una versión "Lite" limpia)
Audiogalaxy (obsoleto)
Bearshare (la versión gratuita)
BitTorrent (varios clientes, ver detalles)
BitTorrent Ultra
Blubster 2.x (Piolet)
Computwin (FileNavigator) (ver detalles)
E-Donkey (Overnet) (la versión gratuita)
Exeem
FileCroc
FreeWire
Grokster (la versión gratuita)
Imesh
KaZaa (la versión gratuita)
Kiwi Alpha
Limewire (versiones antiguas)
MediaSeek (ver detalles)
Morpheus
OneMX
RockItNet
Warez P2P
Xolox


Aplicaciones LIMPIAS

Los siguientes programas de intercambio de archivos no poseen spyware o adware:

ABC Bittorrent Client
Ares Lite (Ares, de la misma compañía, agrega spywares)
AudioGnome
Azureus
BadBlue (no agrega spyware pero requiere registrarse)
BitComet
BitSpirit
BitTornado
BitTorrent (ver advertencia más abajo)
Blubster 1.2.3 (las versiones más nuevas incluyen Adware)
Burst! BitTorrent Client
CQ_EX
DC++
Direct Connect
EarthStation5
E-Mule
Filetopia
Gnucleus
KCEasy
Limewire (versiones actuales están limpias, las antiguas no)
MediaSeek Lite (otro de la misma compañía, agrega adware)
mldonkey
Mute
Qnext
Shareaza
Soulseek
Torrent Search
TorrentStorm
Waste
WinMX (Recomendado por SpywareInfo)
Zultrax (no tiene desinstalador)

sábado, 21 de marzo de 2009

Las aplicaciones P2P que usted no debería usar

Básicamente, este tipo de programas, utiliza una red común (por lo general diferente para cada producto), para comunicar entre si las computadoras de sus usuarios, los que comparten ciertos directorios, donde se encuentran los archivos a intercambiar.

Más allá de los problemas legales por derechos de autor, existe un grave peligro para las computadoras integradas de ese modo. El simple hecho de permitir el acceso a cualquier persona extraña a una computadora personal, ya de por si, es algo que implica grandes riesgos, aunque los programas de ese tipo tengan implementadas las necesarias protecciones.

Uno de los peligros, es el intercambio de archivos que no son lo que dicen ser, o que directamente se tratan de virus, gusanos o troyanos camuflados. Existen decenas de ejemplos, y es una de las más importantes fuentes de propagación e infección.

Pero tal vez más grave, sea la instalación de otros programas no deseados (Spywares o Adwares), que estas aplicaciones esconden.

Los programas espías o "Spyware", son usados por los patrocinadores de los productos P2P, para recabar información sobre que sitios visita el usuario, cuáles son sus preferencias, o que archivos prefiere descargar.

En muchas ocasiones, esto incluye información más comprometida, con datos más personales, siempre con la idea de enviarle más publicidad basura.

También permite especificar que banners publicitarios mostrarle (esto es lo que se denomina "Adware", o sea los programas que se instalan para descargar y mostrar publicidad). Y no debería extrañarle si también empieza a recibir más spam a través del correo electrónico.

La lista de SpywareInfo, puesta al día luego de exhaustivas pruebas de su autor, Mike Healan, una verdadera autoridad en el tema, nos servirá para conocer al menos, que programas del tipo P2P no debemos instalar en nuestras computadoras.

jueves, 19 de marzo de 2009

WEB 2.0


El término, Web 2.0 fue acuñado por Tim O'Reilly en 2004 para referirse a una segunda generación en la historia de la Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios.
Contenido
Introducción [editar]
El concepto original del contexto, llamado Web 1.0 era páginas estáticas
HTML que no eran actualizadas frecuentemente. El éxito de las punto-com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS Sistema de gestión de contenidos (Content Management System en inglés, abreviado CMS) servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como unos factores muy importantes.
Los propulsores de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes, creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.
Origen del término [editar]
El término fue acuñado por Dale Dougherty de
O'Reilly Media en una lluvia de ideas con Craig Cline de MediaLive para desarrollar ideas para una conferencia. Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban y modelos de negocio que evolucionaban. Dougherty puso ejemplos — "DoubleClick era la Web 1.0; Google AdSense es la Web 2.0. Ofoto es Web 1.0; Flickr es Web 2.0." — en vez de definiciones, y reclutó a John Battelle para dar una perspectiva empresarial, y O'Reilly Media, Battelle, y MediaLive lanzó su primera conferencia sobre la Web 2.0 en Octubre del 2004. La segunda conferencia se celebró en octubre de 2005.


En 2005, Tim O'Reilly definió el concepto de Web 2.0. El mapa meme mostrado (elaborado por Markus Angermeier) resume el meme de Web 2.0, con algunos ejemplos de servicios.
En su conferencia, O'Reilly y Battelle resumieron los principios clave que creen que caracterizan a las aplicaciones web 2.0: la web como plataforma; datos como el "Intel Inside"; efectos de red conducidos por una "arquitectura de participación"; innovación y desarrolladores independientes; pequeños modelos de negocio capaces de redifundir servicios y contenidos; el perpetuo beta; software por encima de un solo aparato.
En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para proporcionar servicios interactivos en red dando al usuario el control de sus datos.
Así, podemos entender como 2.0 -"todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando datos a la información existente), bien en la forma de presentarlos, o en contenido y forma simultáneamente."- (Ribes, 2007).

HISTORIA DEL INTERNET

El Internet nació hace más o menos 20 años, Internet fue creada a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET (Defense Advanced Research Project Network) iniciado en el año de 1969 y cuyo propósito principal era la investigación, desarrollo e implementación de protocolos de comunicación para redes de área amplia (WAN).
Estas investigaciones arrojaron como resultado el protocolo de comunicaciones TCP/IP (Trasmission Control Protocol/Internet Protocol) un sistema de comunicaciones muy sólido y robusto en el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet.
En el modelo DARPANET, la comunicación ocurre siempre entre un computador origen y otro destino. Se asume que la red como tal es una red inestable, de tal forma que cualquier porción de la red podría desaparecer en el momento más inesperado debido a causas externas.
Durante el desarrollo de este protocolo se incrementó notablemente el número de redes locales de agencias gubernamentales y de universidades que participaban en el proyecto, dando origen a la red de redes más grande del mundo, las actividades militares se separaron y se permitió el acceso a la red a todo aquel que lo requiera sin importar de que país provenía la solicitud siempre y cuando fuera para fines académicos o de investigación y que pagara sus propios gastos de conexión, los usuarios pronto descubrieron que la información que se encontraba en la red era muy útil y si cada institución que se conectaba aportaba algo crecería más el acervo de información existente.
Para enviar un mensaje por la red, un computador solo necesita encapsular sus datos en un paquete llamado “Internet Protocol (IP) packet”, y direcciónarlo correctamente. Las computadoras interconectadas son las que tendrían la responsabilidad de asegurar la comunicación que se hubiera establecido. “Every computer on the network could talk as a peer, with any other computer”.
Estas concepciones pueden resultar raras, pero la historia ha demostrado que muchas de estas estuvieron correctas. Aunque la ISO (Organization for International Standardization) estuvo dedicada varios años al diseño de un stantard para redes de computadores, la gente no pudo esperar. Los responsables del desarrollo del Internet, respondiendo a las presiones del mercado, empezaron a colocar sus softwares (IP Software) en cada tipo de computador existente (esa fue la única forma práctica de comunicar computadores de diferentes fabricantes). “Cada uno compraría el computador que quisiera, y esperaría a que sus computadores trabajaran juntas a través de esta red.”
Casi 10 años después, las redes LAN y las estaciones de trabajo (workstations) hicieron su aparición. Muchas de estas estaciones de trabajo tenian instalado el “SO Berkeley Unix, que incorporaban por defecto los módulos para interconexión IP. Esto creo una nueva demanda; más que interconectar un simple grupo de computadores , las organizaciones querían interconectar al DARPANET todas sus redes LAN. Esto permitiría a todas las computadores de las redes LAN acceder a las facilidades de la red DARPANET. Al mismo tiempo, muchas otras organizacio Una de las más importantes de estas redes nuevas fue la NSF, administrada por la National Science Foundation (NSF), una agencia del estado norteamericano. A finales de los 80 la NSF creó cinco centros equipados con supercomputadores (supercomputer centers). Hasta ese momento, las computadoras más rapidas en el mundo estaban disponibles solo par estos recursos estuvieran al alcance de cualquier investigador académico. Solo cinco centros de computo fueron creados debido a sus altos costos de mantenimiento, sin embargo el mantenerlos interconectados creaba un problema de comunicación. “Se necesitaba una forma de interconectar estos centros y permitir el acceso de otras computadoras”. En un primer momento se trató de utilizar la infraestructura de comunicaciones del DARPANET, pero esta estrategia fracaso por lo problemas burocráticos propios de entidades gubernamentales.
Es así como la NSF decide construir su propia red, basada en la tecnología IP del DARPANET. Esta red interconectó los cinco centros de la NSF con líneas telefónicas de 56Kbps. Se decide crear adicionalmente redes regionales, donde las instituciones interconectadas se unirían a algunos de los cinco centros de computo de la NSF en un solo punto. Con esta configuración, cualquier computador podría eventualmente comunicarse con cualquier otro redireccionando la conversación a través de los computadores vecinos interconectados.
Las supercomputadoras distribuidas en estos cinco centros de la NSF permitieron a los sitios interconectados, compartir una gran cantidad de información no relacionada al centro precisamente. El tráfico de la red se incrementó, sobrecargando los computadores que los interconectaban. En 1987, un contrato para administrar y renovar la red fue realizado con la empresa Merit Network Inc., que implementó la red educacional de Michigan conjuntamente con IBM y MCI. La antigua red fue reemplazada con lineas telefónicas más veloces (20 veces más veloces que las anteriores), y con computadoras mas rápidas para controlarla.
Este crecimiento y renovación de la NSFNET continua hasta nuestro dias. En la actualidad, el Internet no solo esta conformada por redes interconectadas usando el protocolo IP, sino recientemente redes basadas en protocolos diferentes al IP han desarrollado modulos que las integran con las redes IP tradicionales.
Por muy extraño que pueda parecer, no existe ninguna autoridad central que controle el funcionamiento de la red, aunque existen grupos y organizaciones que se dedican a organizar de alguna manera en tráfico y crecimiento de Internet.
Para 1969 ya habían ocurrido algunas cosas trascendentales. Un genio alucinado había propuesto formalmente la creación de una ‘red intergaláctica’ y luego consiguió que los militares paranoicos de la guerra fría financiaran la exploración del misterioso y naciente mundo de las tecnologías de la información. Los protagonistas eran civiles, pioneros de la informática, que habían intercambiado teorías durante años y estaban deseosos de llevarlas a la práctica. Ahora toda esa época pasa por el cedazo de quienes hurgan la historia.
Existen tres grupos que tienen un papel muy importante en la organización de Internet, el Internet Archiecture Boar (IAB) que son los que controlan los estándares de comunicaciones entre las diferentes plataformas para que puedan funcionar las máquinas y sistemas operativos de diferentes fabricantes sin ningún problema, este grupo es responsable de como se asignan las direcciones y otros recursos de la red. El NIC (Network Information Center) es el grupo encargado de asignar las direcciones y dominios a los solicitantes que desean conectarse a Internet. Uno de los grupos más importante es el Internet Task Force (IETF) en el cuál los usuarios de Internet pueden expresar sus opiniones sobre cómo se deben implementar soluciones a los problemas operacionales que van surgiendo y como debe cooperar los usuarios para lograrlo.
Fundadores de Internet, escritores de ciencia ficción e informáticos discuten sobre el tema. Por ejemplo, en el grupo de noticias de ‘Community Memory’, donde un debate sobre el momento preciso en que nació la Red de redes puede desatar largas conversaciones: hay quienes creen que fue el 2 de septiembre de 1969 cuando fueron presentadas las computadoras capaces de establecer una conexión, otros son definitivos al considerar el día de la primera conexión el 20 de octubre de 1969. Y hay quienes incluso prefieren fechas más recientes. El enorme crecimiento de Internet comenzó en 1994 cuando compañías con propósitos comerciales comenzaron a conectarse a la red, iniciando una nueva etapa de crecimiento.
Esta exploración histórica se repite a lo largo y ancho de la Red, y es necesario entender que no es un ejercicio inútil, un pasatiempo de fanáticos o un tema reservado a los especialistas. Después de todo, las dos primeras computadoras que trataron de decirse ‘LOGWIN’ estaban convertidas a comienzos del 2000 en un sistema que conecta 170 países y más de 300 millones de personas.

martes, 17 de marzo de 2009

Bienvenidos

Bienvenidos al blog de la web 2.0.

Equipo 3