WiMAX: la que se nos iba a venir encima. Pues no, oiga.

WiMAX

WiMAX

WiMAX son las siglas en inglés de Interoperabilidad Mundial para Acceso por Microondas (Worldwide Interoperability for Microwave Access). Es una tecnología de conexión parecida al WiFi que todos ya conocemos pero a lo bestia. WiMAX ofrece mayor ancho de banda y mayor alcance, lo que permite crear redes inalámbricas metropolitanas y, lo más importante, con una inversión ridícula con respecto a lo que representa como avance tecnológico. Además, está respaldada por las empresas más importantes del sector, que siempre ayuda.

WiMAX es el protocolo estandarizado como IEEE 802.16 para la conectividad que permite la recepción por microondas y retrasmisión por ondas de radio. El único organismo habilitado para certificar el cumplimiento del estándar y la interoperabilidad entre equipamiento de distintos fabricantes es el Wimax Forum; todo equipamiento que no cuente con esta certificación no puede garantizar su interoperabilidad con otros productos. La tecnología WiMAX podría ser la base de las redes metropolitanas de acceso a Internet, sirviendo de apoyo para facilitar las conexiones en zonas rurales y utilizándose en el mundo empresarial para implementar las comunicaciones internas. Asimismo, su popularización puede suponer el despegue definitivo de otras tecnologías, como VoIP (llamadas de voz sobre el protocolo IP), debido a su amplio ancho de banda.

Según las especificaciones es capaz de conseguir una velocidad de 70 Mb por segundo (hasta 300 Mbps full-duplex) y de cubrir un área de unos 50 Km a la redonda con una sola antena. Teniendo en cuenta que WiFi llega a 300 metros con un poco de suerte y el viento a favor, y que su ancho de banda oscila entre 11 Mbps y 54 Mbps, dependiendo de la modificación (a/b/g) del estándar, pues queda meridianamente claro que WiMAX se convertirá en el futuro de las comunicaciones inalámbricas. Si es que no se lo carga antes alguna mano negra, claro.

Un sistema WiMAX con seis puntos de acceso podría dar cobertura de 360º para 1.200 abonados, con un coste de unos 6.000 €. La diferencia de costes es evidente, ya que otros sistemas llegan a suponer la friolera de 96.000 € para una red de 500 abonados.

La infraestructura de WiMAX consta de varias partes claramente diferenciadas. Por un lado tenemos las antenas-torre o estaciones base, con capacidad para ofrecer cobertura hasta 8.000 Km2 a frecuencias del orden de 66 GHz. Al abarcar tanta distancia, se hace necesario, a veces, que existan antenas intermedias que operen en bajas frecuencias (entre 2 y 11 GHz) con el fin de evitar las interferencias ocasionadas por la presencia de elementos. Estas antenas tienen un área de cobertura de 65 Km2, lo que viene a ser, más o menos, el radio de acción de las antenas de telefonía móvil. Por último tendríamos el elemento de red de nuestros equipos, es decir, la tarjeta WiMAX que recibe la señal.

Los usuarios finales recibimos la señal de las antenas de baja frecuencia, con un ancho de banda considerable y una cobertura impresionante. Además, y como ocurre con los teléfonos celulares, podríamos desplazarnos en un estado conectado permanente sin perder la conexión, incluso aunque saliéramos de la zona de cobertura o hotspot, ya que automáticamente entraríamos en otra área cubierta y la transición de una a otra se realizaría de manera transparente al usuario debido al solapamiento entre zonas.

Actualmente se recogen dos variantes dentro del estándar 802.16, el modelo fijo y el de movilidad completa. El acceso fijo (802.16d) establece un enlace de radio entre la estación base y un equipo situado en el domicilio del usuario. Para este entorno fijo las velocidades teóricas máximas que se pueden obtener son de 70 Mbps con un ancho de banda de 20 MHz. Sin embargo, en entornos reales se han conseguido velocidades de 20 Mbps con radios de célula de hasta 6 Km, ancho de banda que es compartido por todos los usuarios de la célula.

El modelo de  movilidad completa (802.16e) permite el desplazamiento del usuario de un modo similar al que se puede dar en redes de móvil GSM/UMTS.

Como ya se ha mencionado, las expectativas de WiMAX se extienden también a sitios rurales con poco acceso, es decir, a todas aquellas personas a las que el ADSL y el cable les queda fuera de alcance y buscan soluciones para poder trabajar desde sus hogares o centros de trabajo. Pero también es muy importante en las ciudades y localidades más céntricas. Actualmente disponemos de una conexión por cable (par telefónico, fibra óptica, etcétera) que llega a nuestras casas hasta un router o un módem, y es este aparato el que se encarga de distribuir la señal inalámbrica (WiFi) por el resto de nuestro hogar para llegar a un portátil, un pocket PC o una videoconsola. Con WiMAX la señal inalámbrica llega directamente a nuestra casa (lo que se conoce como “la última milla”) por el aire, y son los distintos aparatos y gadgets los que, por medio de una tarjeta de red adecuada, se conectan directamente. Los proveedores de acceso a Internet dispondrían, pues, de esta posibilidad para ofrecer el servicio sin necesidad de utilizar instalaciones de cables. Nos mandan Internet por las nubes, como si de una red WiFi gigantesca se tratase.

Con semejante ancho de banda, velocidad y cobertura, los diseñadores de aplicaciones y tecnologías que necesitan “mucha chicha” para funcionar se frotan la manos. El VoIP, la tele por Internet, el cine online, retrasmisiones en riguroso directo, todo ello es posible gracias a WiMAX. Las compañías de telefonía móvil tiemblan, y es que el despliegue de WiMAX podría utilizarse también como alternativa a las redes telefónicas, ya que un móvil o un ordenador conectado a WiMAX podría hacer llamadas de telefonía IP sin coste añadido y con disponibilidad de una completa movilidad. Además esta tecnología soporta las denominadas antenas inteligentes, que emiten un haz estrecho que puede ir moviéndose para enfocar siempre al receptor, evitando así interferencias. Factores asaz importantes para competir de plano con la telefonía 3G.

Como digo, las operadoras tradicionales de Internet y de telefonía móvil ven a WiMAX como un claro competidor amenazando con total impunidad a sus ADLS, sus GSM, sus GPRS y sus UTMS. WiMAX podría hacerse con el mercado de la última milla (WiMAX atraviesa el hormigón, UMTS se desvanece con la niebla) dejando con un palmo de narices a todas esas empresas que tanto se afanaron (y afanan) en tirar cable y cable hasta la saciedad. Y ahí es donde veo yo el peligro, ahí es donde podría aparecer una mano negra que consiga que esto no llegue a buen puerto y dé con sus especificaciones en el fondo del mar. Matarile, rile, rile.

En España ya suministran WiMAX operadores como Iberbanda, Broadnet o Neosky. En Euskadi existen implementaciones, experimentales y comerciales, en el 90% del territorio, y Euskaltel dispone de varios cientos de abonados WiMAX en zonas rurales (el Gobierno Vasco ofrece subvenciones de hasta el 100% de la instalación). En Andalucía, Madrid, Murcia, Comunidad Valenciana, Galicia y otros lugares ya disponen de WiMAX en mayor o menor medida.

Pero, ¿por qué no despega esto de una vez por todas? Nokia y Samsung anunciaron hace años la aparición inminente de teléfonos móviles preparados para WiMAX (no quieren perder tajada) y, efectivamente, estos terminales existen, pero como la red no es un algo muy extendido, no sé dónde los estarán vendiendo. Al menos en España no pita o no lo dejan que pite. En Corea, por ejemplo, llevan desde el año 2006 utilizándolo masivamente son dispositivos de Samsung, Intel y otros fabricantes.

Según previsiones antiguas se esperaba que WiMAX creciera un 70% en cinco años. ¿Lo veremos realmente? Llevo escuchando hablar de WiMAX desde mediados del año 2005, más o menos, y no veo que los responsables se interesen mucho por su implantación, a excepción de en entornos rurales alejados. ¿Por qué se oferta cada vez más ADSL y cable módem si, en teoría, son tecnologías sentenciadas a la desaparición? Somos los últimos en Europa, y de los del vagón de cola en el mundo, en la implantación de WiMAX y esto no me huele nada bien. No, no. Todo esto me suena mucho, pero mucho, a la trayectoria del formato de vídeo Betamax que Sony presentó en los años setenta, o la del LaserDisc, o la del MiniDisc, o a la…

Neutralidad de Internet para torpes

Justicia neutral

Justicia neutral

Últimamente estamos oyendo parlotear mucho acerca de la tan manida neutralidad de Internet. Hizo alusión a ello el presidente de EEUU, Barack Obama, en su campaña electoral, y el pasado mes de junio, Julius Genachowski, presidente de la FFC (Comisión Federal de las Comunicaciones) estadounidense, volvió a sacar el tema a la palestra con sus declaraciones. El amigo Julius prometió presentar unas bases para regular esto de la neutralidad en la Red de Redes.

Pero, ¿qué demonios es eso de la neutralidad de Internet? ¿No es Internet neutral? Pos no, mirusté. Matizo, Internet sí es neutral, los que no lo son, son aquellos que proporcionan el servicio, es decir, los ISP o Proveedores de Servicios Internet.

El problema de la neutralidad de la Red es muy sencillo: algunos ISP bloquean o retardan conexiones de sus usuarios por causas como un elevado ancho de banda o conexiones con servicios de la competencia. Lo explicó ahora pa’ la señá María, que no se ha enterado todavía. Usted, señora, tiene el Intenné este de Telefónica en casa, ¿verdad? Bueno, pues imagínese que la empresa le bloqueara la conexión cuando usted se conecte a la web de Vodafone. ¿Por qué? Por joder; es la competencia.

Esta práctica está empezando a ser demasiado común entre los proveedores de acceso, si bien en España parece que no ocurre con demasiada frecuencia. Si detectan que un usuario consume un elevado ancho de banda por estar conectado, por ejemplo, a una red peer to peer descargando una película de Gracita Morales, pues le cortan el servicio o se lo ralentizan. (Y no precisamente porque la película sea de Gracita Morales).

Hace un año, el operador argentino Fibertel y la multinacional Google llegaron a un acuerdo por el cual los usuarios de este ISP podrían acceder más rápido a GoogleEarth, GMail y Youtube, implementando un enlace privado entre Fibertel y Google e instalando servidores locales de Google en el datacenter de la empresa argentina. Oséase, lo que viene siendo de todo punto una patada en los mismísimos huevos al principio de neutralidad de la Red que, por cierto, el gigante buscador de Internet defiende con vehemencia a través de la figura de Vinton Cerf. Cuando un proveedor de contenidos goza de una red “particular” y diferente a la de sus competidores se destroza literalmente el campo de igualdad que permitió que todas las startups que hoy conocemos nacieran y crecieran en su día.

Cierto es también que, días después, Google emitió un comunicado en el que desmentía estas afirmaciones y culpaba a una nota de prensa mal redactada en la que ellos no tomaron parte y con la que no estaban de acuerdo, y que si la abuela fuma, que si deja de fumar, que patatín o patatán. Bueno, le concedemos el beneficio de la duda por ser vos quien sois.

Hace año y pico, también, la FCC sentenció al proveedor de Internet Comcast por violar una norma federal al bloquear las transferencias de algunos usuarios procedentes de redes BitTorrent. El fallo obligó a los proveedores de servicios a modificar la forma en la que gestionaban su red, así como a garantizar a sus usuarios un acceso abierto a Internet.

En la web www.neutralidadsi.org han realizado diversas pruebas con resultados positivos que acusan a VTR, uno de los principales actores de la banda ancha en Chile, de colocar restricciones de cuello de botella a las conexiones realizadas a través del puerto 6881, puerto por defecto para la red BitTorrent.

El Gobierno estadounidense de Obama quiere formar parte activa de esta controversia. La neutralidad de Internet es el principio que dice que todo el tráfico que circule por la Red debe ser tratado igual, independientemente de qué tipo sea y de su origen y destino. Por ello plantearon en el pasado mes de octubre algunas normas para prohibir a los proveedores de acceso discriminar los servicios, contenidos y aplicaciones que consuman más ancho de banda, como por ejemplo el vídeo, e impedirles bloquearlo o lentificarlo. La FCC defendió las normas como indispensables para crear un Internet abierto y democrático. Las medidas propuestas prohíben a los proveedores de ancho de banda “impedir que los usuarios envíen o reciban material legal de su elección” y “dificultar a los usuarios el poder de elegir entre la competencia de proveedores de redes, aplicaciones, servicios y contenido” y, sobre todo, se les obliga a “tratar contenidos, aplicaciones y servicios legales de forma no discriminatoria”.

Existen también voces en contra de la neutralidad, como no, pero pueden todas ellas resumirse en las palabras que en Libertad Digital escribió el ingeniero Fernando Herrera. Dijo textualmente:

Hay bits más importantes que otros bits, por la clase de información que llevan o por la urgencia de la misma, o porque si no llegan de una determinada forma son inútiles. Los operadores siempre han tenido mecanismos para gestionar la Red, lo que en definitiva significa priorizar unas comunicaciones frente a otras, para que funcionen de forma adecuada los servicios que se prestan.

Además decoró su disertación con este bonito paralelismo

La igualdad de bits sería como la igualdad de vehículos en nuestras carreteras. Impediría a las ambulancias y bomberos cumplir su función en muchos casos. Las sirenas son el mecanismo de priorización en las vías de tráfico, y a nadie se le ocurriría eliminarlas, mucho menos en aras de un supuesto derecho de los ciudadanos.

Vamos, el colmo de la demagogia. Está claro, señá María, que el correo diario que le manda usted a su hija la que estudia en Niuyor es menos importante que los correos que mandan otras personas más importantes que su persona. Y es que, le guste o no, usted no deja de ser una mujer de pueblo tonta y boba a la que hay que educar. ¡Déjese manejar, señora, y evite pensar por usted misma! Y, por supuesto, no se le ocurra descargar canciones de Manolo Escobar con el burrito ese tan bonito de al lado del reloj, que se le bloqueará hasta la factura del gas; ¿no comprende usted que son más importantes las conexiones a páginas guarras de nuestros políticos en el hemiciclo?

Uno de los padres de Internet, Vinton Cerf, actualmente Vicepresidente Mundial y Chief Internet Evangelist de Google, cree que la neutralidad de la Red es fundamental para preservar nuestras libertades, que “Internet fue diseñada sin ningún guardián sobre nuevos contenidos o servicios.”

Además, Enrique Dans publicó no hace mucho en su blog el “quién es quién” de la neutralidad en la Red y dejó caer, como quién no quiere la cosa, quiénes son los hinchas y a qué equipo animan. Por poner algún ejemplo, los amigos de la neutralidad son empresas como Google, eBay, Mozilla, Amazon, Twitter, Sony o Vuze; los enemigos, compañías como Cisco, Alcatel-Lucent, Cornig, Ericsson, Motorola y Nokia, entre otros.

A veces uno no sabe si te están diciendo la verdad o todo es una puñetera estrategia de empresa. El miedo que tengo es que si los políticos se ponen cabezones al final siempre hacen lo que les da la gana, y encima nos hacen creer que es por nuestra culpa y por nuestro bien. Corderitos cibernéticos manejados por la soga del ancho de banda. ¡Beeee!

Captcha: Escribe el código de la imagen, si puedes…

Captcha

Captcha

¿Quién no se ha tropezado, a la hora de registrarse en un sitio web, con el estúpido cuadro de texto en el que debemos escribir el código de letras y números que aparece en una imagen anexa? ¿Quién no se ha ciscado tres veces en la madre que engendró al que inventó esta chorrada porque es incapaz de vislumbrar siquiera alguno de los caracteres de la mencionada imagen?

Este sistema para autenticar que usuarios humanos y no programas o robots o spambots están tecleando delante del ordenador sus datos a la hora de realizar un registro es, sin quedarme corto, la mayor de las gilipolleces que los lumbreras de este mundo digital han asacado tras exprimir al máximo sus binarios cerebros.

Captcha es un acrónimo de Completely Automated Public Turing test to tell Computers and Humans Apart, uséase Prueba de Turing pública y automática para diferenciar computadoras y humanos. Es un sistema inventado para determinar que el que está rellenando determinado formulario es una persona física humana terrestre del mundo mundial y no un programita informático que se dedica a, por ejemplo, darse de alta automáticamente en foros de noticias y llenarlos de spam y mensajes para comprar Viagra hasta que revienten.

La idea es buena, el resultado un asco. Proviene, como su nombre indica, del archiconocido Test de Turing, pero con una pequeña gigantesca diferencia, que es que en la prueba de Turing el que debe determinar si le contesta una máquina o un ser humano es otro ser humano, y no un programa informático.

El Test de Turing pretende demostrar la supuesta inteligencia de una máquina. Se supone un juez situado en una habitación y una máquina y un ser humano en otra. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hace. La tesis de Turing es que si ambos jugadores son suficientemente hábiles, el juez no podrá distinguir quién es el ser humano y quién la máquina. Hasta hoy, gracias al Cielo, ninguna máquina ha conseguido superar esta prueba.

Supongamos por un momento que queremos registrar nuestra página güeb en un buscador o motor de búsqueda internetero. Sabemos que existe software especializado para realizar esta función en millones de buscadores a lo largo y ancho de la Red de redes de un solo plumazo. Tocotó. Clic, clic y clic y ya tengo mi paginita en todos los buscadores del mundo. Pos no.

Parece ser que estos programitas les repatean las gónadas sexuales a los dueños de los buscadores, porque ellos lo que quieren es que tú entres en su web, te recorras seiscientas páginas hasta encontrar la del alta de sitios nuevos y teclees los datos con esmero y pulcritud en sus bonitos formularios hachetemele. Es por ello que anulan de un brochazo la posibilidad de utilizar software especializado cascándote un cuadro de texto con una imagen a su lado en la que se reflejan una serie de caracteres que, de manera aleatoria, cambian cada vez que accedes a esa página. Evidentemente los programas que ejecutan registros no pueden leer estos caracteres porque forman parte de una imagen prediseñada.

Esta técnica comenzó de este modo y ahora se ha extendido a cualquier página de todo pichichi que cuelga un formulario en el Intenné. Que quieres formar parte de mi peña de futbolín, pues te registras pero me rellenas la casillita de marras con los caracteres de la imagen; que lo que quieres es darte de alta en mi página de coleccionistas de bigotes de foca, pues ídem majete, a ver si van a inventar un programa que registra automáticamente usuarios en páginas de coleccionistas de bigotes de foca y se me va a terminar el chollo de que navegues a gusto por mi web recién horneada.

Si partimos de la premisa de que el sistema es válido para la función que realiza, aunque vulnerable sin no mucha inteligencia programática, yo me pregunto por qué demonios las letras y números de las imágenes de las pelotas no están más claros y mejor escritos. Qué más dará, digo yo, que una “I” parezca un “I”, como tiene que ser, o que parezca un “i” o una “L” o una “l” o un “1”.

Pues nada, exactamente, da igual hacerlo bien que mal. Entonces, ¿por qué cojones no ponemos las cosas más fáciles al usuario y empezamos a hacerlo bien? Supongo que pensarán que se pueden aplicar complicadísimas técnicas OCR para que un software descifre las letras y tal. Hombre, por favor. Hay imágenes prácticamente indescifrables a golpe de ojo humano (como la del afoto adjunto) y algunas que dan tanto por el culo que entran ganas de mandar al mismo lugar corporal al que inventó la gilipollez ésta, al güebmaster, al dueño de la página y la madre que los parió a todos.

El problema es que los diseñadores web se creen que esto es seguro, pero nada más lejos de la realidad. Actualmente hacer un captcha seguro requiere métodos complicados de implementar que únicamente poseen las grandes empresas. Cualquier algoritmo que se le aplique a una imagen puede ser desalgoritmado en cero coma. Que si tachan las letras, que si las deforman, que si utilizan la misma gama de colores para el frente y el fondo… Na de na. La ingeniería inversa deshace todo aquello antes hecho, y más teniendo en cuenta que los algoritmos de los captcha son públicos,… ¿qué más quieres?

Aunque los captcha fueron originalmente diseñados para impedir que un software OCR reconozca los caracteres de las imágenes generadas, existen proyectos de investigación que han probado que es posible saltarse muchos de estos engendros con programas que han sido específicamente diseñados para un tipo determinado de captcha. Para los que tienen letras distorsionadas, por poner un ejemplo, la aproximación típica es seguir los siguientes pasos:

  1. Eliminación del ruido de fondo, por ejemplo con filtros de color y detección de líneas finas.
  2. Segmentación, por ejemplo partiendo la imagen en segmentos que contienen una sola letra.
  3. Identificar la letra de cada segmento, y así utilizar la información extraída de la imagen.

El paso 1 es típicamente muy fácil de automatizar. Además, en 2005, se mostró que un algoritmo de una red neuronal tiene un menor margen de error que los humanos resolviendo el paso 3.

La única parte dónde los humanos superan a las máquinas es en el paso 2. Si el ruido de fondo consiste en formas similares a letras, y las letras están unidas a este ruido, la segmentación se hace casi imposible con el software actual. Por lo tanto, un captcha efectivo debería enfocarse en el paso 2, la segmentación.

Otros captcha son vulnerables por múltiples factores, ya que algunos sisitemas pueden sortearse simplemente reutilizando el ID se sesión de una imagen conocida y cascándolo en la URL a la hora de acceder a la page en cuestión; otros se alojan en servidores compartidos; otras veces, si parte del software de generación del captcha se realiza en el lado del cliente (la validación se hace en el servidor, pero el texto que el usuario tiene que identificar es renderizado en el lado del cliente), los usuarios pueden modificar el cliente para que muestre el texto sin renderizar. En fin.

Además de todo ello, siempre queda el recurso de la mano de obra barata, usando humanos explotados para decodificar los captcha. Un documento de la organización W3C afirma que un operador “puede fácilmente verificar cientos de ellos cada hora”.

En fin, que hoy en día estoy viendo por ahí métodos de autenticación mucho más fiables e ingeniosos (como las operaciones matemáticas o las definiciones de términos y palabras) que los captcha estos de los cojones. Así que déjennos en paz con cartelitos ilegibles y paren de poner trabas a la hora de navegar. Esto viene a ser las barreras arquitectónicas del Internet de futuro.

Mini manual para entender las calidades de las películas descargadas y no morir en el intento

Rollo de película

Rollo de película

Cuando tenemos la intención de descargar una película de Internet por medio de cualquier software de intercambio entre pares o P2P (eMule, eDonkey, Azureus, Ares, uTorrent, Pando…), al realizar una búsqueda es posible que obtengamos numerosos archivos de la película que deseamos descargar. El tamaño de estos archivos puede variar, así como su calidad de audio y vídeo, desde 600 Mb hasta más de 4 Gb, aproximadamente. Ello es debido a la forma en que ha sido copiada la película, y es que no es lo mismo una copia exacta de un DVD que una grabación clandestina con una cámara de vídeo en una sala de cine.

Por norma general existe una regla no escrita entre las personas que se dedican a ripear películas a la hora de nombrar los archivos que comparten. Seguro que, tras una búsqueda en eMule, más de una vez nos hemos tropezado con nombres de archivos de película como el siguiente:

Juegos de Guerra 2 (Spanish) 2007 DVDRIP Xvid-Mp3 (Centraldivx.com).avi

Es posible que nunca nos hayamos parado a observar todo lo que va más allá del título, pero lo cierto es que nos ofrece toda la información necesaria para saber la calidad que obtendremos tras la descarga.

Después del título aparece el idioma de la película entre paréntesis y el año de la producción. Con respecto a estos términos no comentaré nada más, porque son lo suficientemente claros como para arrojar más luz sobre el tema. Simplemente apuntar que el idioma puede aparecer escrito en inglés (lo más común) como en este ejemplo (Spanish), puede aparecer en español (Español), o incluso abreviado (ES, SP, ESP, SPA, etcétera). A la hora de realizar una búsqueda es conveniente introducir alguno de estos términos para cribar los resultados al máximo.

Lo que sigue al año de producción (DVDRIP Xvid-Mp3) es precisamente lo que nos informa sobre la calidad en la que está ripeada la película. En este caso vemos que es una copia directa de DVD (DVDRIP), que el códec de vídeo es Xvid y el de audio es MP3.

Vamos a ver a continuación las distintas calidades que puede tener un archivo de película y cómo se especifica, generalmente, en su nombre. Comenzaremos por la calidad peor y terminaremos por la mejor.

1. Cam

  • En el nombre de archivo aparece como: CAM
  • Origen del vídeo: Cámara (sin trípode, generalmente)
  • Origen del audio: Cámara
  • Calidad de vídeo: Muy baja
  • Calidad de audio: Muy baja

Este tipo apenas se usa en España por su baja calidad. Se corresponde con la grabación directa del vídeo y el audio en una sala de cine por un espectador, sin trípode ni ningún tipo de interés porque la calidad sea mínima.

Suelen ser estrenos muy recientes.

2. TeleSync

  • En el nombre de archivo aparece como: TS, TS-Screener, Telesync o Screener
  • Origen del vídeo: Cámara (con trípode)
  • Origen del audio: Origen externo limpio
  • Calidad de vídeo: Baja-Media
  • Calidad de audio: Media

Esta calidad es la más usual para los screeners en España. El vídeo es una grabación en la sala de cine con una cámara montada sobre trípode, y la calidad puede ser muy buena o nefasta, dependiendo de quién realice la grabación, con qué tipo de cámara y en qué condiciones (cine cerrado o con gente, iluminación, etcétera). El audio se obtiene de un medio externo limpio de ruido y, posteriormente, se sincroniza con la imagen mediante software. Este medio externo suelen ser los conectores de audífonos especiales para sordos de algunos cines o el sistema principal de sonido de la sala.

A este tipo se le suele llamar screener a secas. Suelen ser estrenos recientes.

3. VHS-Screener / VHS-Rip

  • En el nombre de archivo aparece como: VHS-Screener, VHS-Rip
  • Origen del vídeo: Cinta VHS
  • Origen del audio: Cinta VHS
  • Calidad de vídeo: Media
  • Calidad de audio: Media

Son películas ripeadas directamente desde una cinta VHS. La calidad es la de la cinta en cuestión.

Suelen ser antiguas películas descatalogadas o que no han aparecido en DVD.

4. TeleCine

  • En el nombre de archivo aparece como: TC, TC-Screener o Telecine
  • Origen del vídeo: Proyector de cine
  • Origen del audio: Proyector de cine
  • Calidad de vídeo: Media-Alta
  • Calidad de audio: Media-Alta

Este tipo de películas se traspasa directamente desde las salidas de los proyectores de cine a DVD o VHS. No era muy común verlas en España, pero ahora empiezan a irrumpir con fuerza.

Los países de Europa del Este y Rusia son los mayores productores de este tipo de calidades y, lo que se suele hacer, es extraer el vídeo de un TeleCine extranjero y sincronizar el audio captado en español en una sala de cine (algo parecido al DVD-Screener que se ve posteriormente).

Suelen ser estrenos recientes.

5. DVD-Screener

  • En el nombre de archivo aparece como: DVD-Screener o DVD-SCR
  • Origen del vídeo: DVD
  • Origen del audio: Origen externo limpio
  • Calidad de vídeo: Alta
  • Calidad de audio: Media

En este tipo de calidad el vídeo se extrae de un DVD promocional o de un DVD que ya ha salido en otros países antes que en España. El audio se obtiene de un origen limpio como los mencionados en la sección de TeleSync. Posteriormente se sincronizan.

Suelen ser películas no muy recientes, al menos en España.

6. DVD-Rip

  • En el nombre de archivo aparece como: DVD-Rip
  • Origen del vídeo: DVD
  • Origen del audio: DVD
  • Calidad de vídeo: Alta
  • Calidad de audio: Alta

Este tipo se corresponde con el ripeo tal cual de un DVD. Tanto el vídeo como el audio se extraen del DVD original, por lo que la calidad es muy buena, siempre y cuando se realice por una persona experta en tales lides. Muchas veces aparece antes de que se publique la película original, vía copias previas enviadas a los críticos de cine. Esto hace que los rips de mala calidad desaparezcan o no lleguen ni a aparecer.

Son películas que ya han salido en DVD.

7. DVD-R

  • En el nombre de archivo aparece com: DVD-R
  • Origen del vídeo: DVD
  • Origen del audio: DVD
  • Calidad de vídeo: Muy alta
  • Calidad de audio: Muy alta

Este formato de calidad se corresponde con la copia exacta de todos o algunos de los contenidos de un DVD sin ripear, es decir, sin compresión alguna, por lo que no existe pérdida de calidad. Suelen contener la película en dos o tres idiomas e, incluso, los subtítulos.

El problema es que el tamaño de un DVD original es demasiado grande para copiarlo en un DVD grabable normal de 4,7 Gb (DVD-5). Podría caber en un DVD de doble capa (DVD-9) que permite hasta 8,5 Gb o en uno mayor (existe hasta DVD-18), pero estos soportes no suelen ser admitidos por la mayoría de los reproductores de DVD de salón ni por muchos reproductores informáticos de DVD. Por todo ello, a excepción de algunas películas antiguas de dibujos animados que no tienen mucha duración, los extras del DVD original no suelen ser incluidos en este
formato.

Son películas que ya han salido en DVD. Tienen grandes tamaños, cercanos a los 4 Gb o más. Se suelen distribuir en la red BitTorrent. Lo que descargamos son archivos .VOB, .IFO y .BUP que han de ser quemados como DVD de vídeo.

8. Imagen de DVD

  • En el nombre de archivo aparece como: ISO, NRG, BIN, CUE, MDF, MDS
  • Origen del vídeo: DVD
  • Origen del audio: DVD
  • Calidad de vídeo: Muy alta
  • Calidad de audio: Muy alta

Las imágenes de DVD son copias exactas de DVD completos. En este caso se copia completamente un disco con la película, los idiomas, los subtítulos y todos los extras.

Son películas que ya han salido en DVD y que o bien no tienen muchos contenidos o bien duran menos que una película normal. Sobre todo películas de dibujos animados, actuaciones, vídeos musicales, documentales, series, etcétera.

9. BR-Rip

  • En el nombre de archivo aparece como: BR-Rip o BD-Rip
  • Origen del vídeo: BluRay Disc
  • Origen del audio: BluRay Disc
  • Calidad de vídeo: Excelente
  • Calidad de audio: Excelente

Son rips de discos BluRay con calidades 720p y 1080p. Al igual que con el resto de formatos, depende de la habilidad de la persona que lo genere para que la calidad sea mejor o peor. Aún así, a igual tamaño e igual proceso que un DVD-Rip, un BR-Rip tendrá mejor calidad simplemente porque la fuente es mejor.

Son películas ya aparecidas en BluRay Disc.

10. Otras denominaciones

Al calor de las anteriores denominaciones “oficiales” de calidades han ido apareciendo otras menos conocidas (la mayoría referidas a televisión para ripeos de series y películas) pero que cada vez van tomando más importancia. A continuación vamos a detallar algunas de ellas.

  1. TV-Rip: Es un rip directo de un programa o película de televisión.
  2. DVB-Rip: Rip a partir de una señal de TDT (Televisión Digital Terrestre).
  3. HDTV-Rip: Rip de televisión digital de alta definición.
  4. PDTV-Rip: Es un rip de televisión digital pura. Se obtiene con tarjetas sintonizadoras de televisión capaces de recibir TDT.
  5. DSR-Rip: Rip de satélite de señal digital.
  6. LD-Rip: Rip de LaserDisc.
  7. R5-Rip: DVD para la región 5 de Europa del Este, India, África, etc. Son copias hechas con un TeleCine analógico. Muy raras en España.
  8. Workprint (WP): Es un montaje no finalizado de una película que se envía a críticos y productores bastante antes de la versión final. Suelen ser películas con escenas que luego no aparecen en la versión definitiva, con marcas de agua, rótulos o contadores de segundos.

Además de la calidad de grabación de una película, es importante tener en cuenta el formato de vídeo y el formato de audio con los que está ripeada. El formato y el códec (del que hablaba al principio de este mini manual) están íntimamente relacionados, porque deberemos tener los codecs adecuados para reproducir tanto la imagen como el sonido de los distintos formatos. Además, los reproductores de salón sólo aceptan algunos de los formatos más conocidos y utilizados.

A continuación enumeraremos los más usuales con los que nos vamos a encontrar ripeada una película.

Formatos de vídeo

  • DivX y Xvid (AVI): Son formatos de codificación con los que obtendremos calidades similares a los de un DVD. Permite comprimir casi 2 horas de película en, aproximadamente, 700 Mb. Es el más común de los formatos de vídeo.
  • VídeoCD (VCD): Es el formato más veterano. Utiliza la compresión MPEG-1 a un bitrate fijo. Ofrece calidad de VHS y una película de 2 horas necesitará de 2 CD de 700 Mb para entrar correctamente. Es el formato más compatible.
  • Súper VídeoCD (SVCD): Formato basado en compresión MPEG-2. Distribuye los bits de una forma más eficiente que el anterior. Es menos
    compatible que el VCD. Una película necesitará de 2 ó 3 CD de 700 Mb, pudiendo llegar a alcanzar calidad de LaserDisc.
  • CVCD: Formato igual al VCD pero con mayor compresión.
  • KVCD: Al igual que el anterior deriva del VCD pero con una tasa de compresión todavía mayor.
  • RAT-DVD: Este formato permite comprimir una película respetando todo su contenido (menús, extras, subtítulos…) para ser visualizada exclusivamente en un ordenador con Windows XP, DirectX 9 y Windows Media Player 10 o WinDVD casi exclusivamente.

Formatos de audio

  • MP3: Este códec (MPEG Layer 3) es el más extendido y compatible. Tiene como peculiaridad un ratio de compresión 11:1 sin pérdida de calidad de sonido audible.
  • WAV: Formato propietario de Microsoft sin compresión.
  • WMA (Windows Media Audio): De compresión parecida al MP3 y de calidad también similar.
  • AAC: Codificación estándar para audio reconocida por ISO en el patrón MPEG-2. En teoría almacena más que un MP3 y en menos espacio. Formato utilizado por Apple.
  • AC3: Códec para reproducir audio en el sistema Dolby Digital AC3.
  • RA (Real Audio): Soporte multimedia creado por la empresa Real Network, con una alta tasa de comprensión y algoritmos especiales que reducen considerablemente el tamaño de los archivos de sonido.
  • OGG: Lo que diferencia a Ogg Vorbis del resto es que es gratuito, abierto y no está patentado. Su principal atractivo es la importante reducción que hace de un archivo de audio sin restarle calidad. Así mismo, se distingue por su versatilidad para reproducirse en prácticamente cualquier dispositivo.

Para terminar decir que además del formato de audio y vídeo y la calidad de ripeo, en el nombre de un archivo de película descargado podemos encontrar multitud de detalles más. Vimos al principio que suele aparecer el año de producción, el idioma (imprescindible) o el ripeador o sitio web que alberga el enlace. Pero también alguno de los siguientes textos que voy a detallar.

  1. SUBBED XXX: La película tiene subtítulos incrustados en lenguaje XXX.
  2. DUBBED XXX: La película no está en versión original, está doblada al lenguaje XXX.
  3. WS: WideScreen. Dimensiones originales, con bandas negras.
  4. FS: FullScreen. A pantalla completa, sin bandas negras.
  5. REPACK: Cuando alguna película ha salido ripeada con algún fallo, puede aparecer otra con esta leyenda indicando que está solventado.
  6. NUKED: No aprobada. Versión que no cumple las reglas de ripeo acordadas. Puede haber varias razones (BAD A/R, BAD ASPECT RATIO, BAD IVTC…).
  7. PROPER: Según las normas no escritas, el primero que saca una película (normalmente TS-Screener o TC-Screener) gana la “carrera” y nadie más puede publicar esa misma película. Pero si la calidad de la primera publicación es muy mala, otro grupo tendrá “el permiso” de publicarla como una versión “apropiada”.
  8. LIMITED: Significa que se ha visto en menos de 250 cines (en EEUU).
  9. INTERNAL: De distribución interna. Algunas películas se distribuyen de esta forma por varios motivos. Normalmente es para recuperar viejos ripeos en DVD (es decir, duplicar una película ya publicada hace tiempo) o cuando la fuente es una grabación de mala calidad.

Como resumen podríamos decir que es muy importante leer el nombre del archivo de película que nos vamos a descargar, ya que no es lo mismo, como hemos podido comprobar, que sea TS-Screener o DVD-Rip, que el códec de vídeo sea Xvid o VCD o que sea WS o FS.

Teniendo estos pocos detalles en cuenta, seguro que lo que bajemos de Internet será más adaptado a lo que deseamos obtener en una primera vez y únicamente descargando un único archivo por película.

Eso sí, los fakes que resultan en películas porno en lugar de esa última superproducción que queríamos haber bajado, van a seguir colándosenos por siempre jamás. Aunque una buena actitud es desconfiar de los DVD-Rip de películas todavía en las salas de cine. Por lógica.

Frases con historia (II)

No hay ninguna razón para que un individuo tenga un ordenador en su casa.

Ken Olson, Presidente de Digital Equipment Corporation. 1977.

111 de 116«...102030...109110111112113...»
eBook ‘retroPLOF!’

retroPLOF!

Especifica tu dirección de correo electrónico y pulsa 'Comprar ahora'. Puedes pagar con tu cuenta de PayPal o con cualquier tarjeta bancaria.

E-mail envío eBook:

Sigue teknoPLOF! vía…
 
RSS
Twitter
Facebook
Google
 
Ready Set Click!

Utilizamos cookies propias y de terceros para mejorar la experiencia de navegación. Más información.

CERRAR