LaLiga SmartBank ya tiene fecha de llegada y precio en Amazon Prime Video

LaLiga SmartBank ya tiene fecha de llegada y precio en Amazon Prime Video

LaLiga anunció en agosto que LaLiga SmartBank (la segunda división) llegaría a varias plataformas gracias a la decisión de haberla comercializado en régimen de no-exclusividad. Una de ellas, muy destacada, era Prime Video, el servicio de vídeo bajo demanda de Amazon.

Tras varias jornadas sin conocer la fecha concreta de llegada de esta competición a Prime Video, ya sabemos por fin los detalles de este acuerdo: LaLiga SmartBank estará disponible en Prime Video a partir del 6 de diciembre, según ha anunciado el propio ente, mediante un canal específico que costará 9,99 euros al mes, sin compromiso de permanencia.

9,99 euros al mes, sin permanencia

La inclusión en Prime Video mediante un canal específico, de contratación separada, es la misma fórmula que utilizan otras plataformas para llegar a la plataforma de Amazon y meter ahí su catálogo. Por ejemplo, la española FlixOlé, Acorn TV o MGM entre otros.

En el caso del canal de LaLiga SmartBank, tampoco hay que dar de alta un nuevo usuario en otra plataforma ni activar un nuevo método de pago: todo funciona integrado en la cuenta de Amazon, donde también se facturan los canales como este.

LaLiga SmartBank llegará a Prime Video en pleno puente de la Constitución y con varias jornadas por delante hasta que vuelva a jugarse LaLiga Santander

Aunque inicialmente se habló de noviembre, finalmente la llegada de esta competición a la casa de Amazon será en pleno puente de la Constitución, con varias jornadas por delante hasta que vuelva a jugarse LaLiga Santander una vez finalice el Mundial.

LaLiga SmartBank tiene comentaristas como Axel Martínez, Lluís Izquierdo, Alba Oliveros o Xavi Rodríguez entre otros; así como celebridades como Lluís Carreras, Esteban Suárez o Jofre Mateu.

Este movimiento de LaLiga, aliándose con una OTT en lugar de depender únicamente de operadoras o canales de TDT, ya tuvo su primer paso esta temporada con la venta de la mitad de las jornadas de LaLiga a DAZN, además de la otra mitad a Telefónica, quien acabó haciéndose también con los partidos de DAZN para ser la única en ofrecer la jornada completa. Orange posteriormente acordó también poder ofrecer todo el fútbol, incluyendo la primera y segunda división.

Imagen destacada | LaLiga.

-
La noticia LaLiga SmartBank ya tiene fecha de llegada y precio en Amazon Prime Video fue publicada originalmente en Xataka por Javier Lacort .



from Xataka https://ift.tt/MmLxzWX
via IFTTT

Responde a nuestra pregunta en Twitch, participa en el sorteo y llévate un Honor X8 gratis

Responde a nuestra pregunta en Twitch, participa en el sorteo y llévate un Honor X8 gratis

Habemus nuevos sorteo en nuestro canal de Twitch, ElStream. Hoy, 30 de noviembre, a partir de las 16:00, un afortunado podrá llevarse a casa totalmente gratis un Honor X8. ¿Cómo conseguirlo? Fácil: siendo el primero en responder correctamente a una pregunta que lanzaremos durante el directo. A continuación repasaremos la mecánica para quede totalmente clara.

Pero antes, una aclaración: para participar en el sorteo hay que responder correctamente a la pregunta en el chat de Twitch y no en los comentarios de este artículo, que es estrictamente informativo.

Cómo ganar un Honor X8 con ElStream

Seguir el programa de hoy en Twitch tiene premio: el Honor X8, un smartphone de gama media bastante completo. Para participar en el sorteo, solo tendrás que ver el streaming y estar atento, porque en algún momento lanzaremos una pregunta. El primero que la responda correctamente se llevará el premio. Los pasos son los siguientes:

  • Sigue a El Stream en Twitch.
  • Durante la retransmisión de hoy a partir de las 16:00, lanzaremos una pregunta para el sorteo.
  • Tendrás que responder a la pregunta en los comentarios de Twitch, en los de nuestra emisión en directo.
  • La primera persona en responder correctamente, se llevará el premio.

Se elegirán un ganador y dos suplentes. Si el primero no cumple los requisitos se pasará al primer suplente y, si no, al segundo. El ganador se elegirá durante el directo y tendrá que enviar un susurro a ElStream en el chat de Twitch para que procedamos a verificar su información. También tendrá que ser mayor de 18 años, residente en España y seguidor de ElStream en Twitch. Las bases legales del sorteo las puedes encontrar en este enlace.

Honor X8

El Honor X8 cuenta con una pantalla LCD de 6,7 pulgadas con resolución FullHD+ y una frecuencia de 90 Hz. Dentro encontrarás un procesador Snapdragon 680 con 6 GB de memoria RAM y 128 GB de almacenamiento interno. Es una gama media realmente solvente y capaz de cumplir en todas las tareas del día a día.

El terminal incorpora una batería de 4.000 mAh y carga rápida de 22,5W, así como una cámara principal de 64 megapíxeles, un gran angular, un macro y un sensor de profundidad. Los selfies, por su parte, quedan en manos de una cámara de 16 megapíxeles.

HONOR X8 Smartphone de 6+128 GB con Cámara Cuádruple de 64 MP, Teléfono Móvil Fino de 7.45mm con Pantalla de 6,7" + 90Hz, Snapdragon 680, Carga Rápida y Gran Batería, Versión ES

HONOR X8 Smartphone de 6+128 GB con Cámara Cuádruple de 64 MP, Teléfono Móvil Fino de 7.45mm con Pantalla de 6,7" + 90Hz, Snapdragon 680, Carga Rápida y Gran Batería, Versión ES

Este contenido es una colaboración y patrocinio entre Xataka y la marca, pero no hay pacto sobre el guión ni la selección de los temas. El contenido editorial está elaborado íntegramente por Xataka.

-
La noticia Responde a nuestra pregunta en Twitch, participa en el sorteo y llévate un Honor X8 gratis fue publicada originalmente en Xataka por Jose García .



from Xataka https://ift.tt/RCOhGTZ
via IFTTT

El método más rápido para calentar el interior del coche ahora que llegan el frío y las heladas

El método más rápido para calentar el interior del coche ahora que llegan el frío y las heladas

Llega el frío, las temperaturas bajo cero, las heladas y las imágenes de conductores con el abrigo puesto y guantes en las manos para recorrer los primeros kilómetros del día. Una constante que se repite cada año pero que podemos paliar (o evitar) con algunos sencillos trucos.

Igual que no hay nada como tener que conducir con los mandos del coche ardiendo, con el volante quemando y sentir la palanca de cambios como si fuera un hierro ardiendo, tampoco es cómodo tener que manejar un coche tiritando y con las manos heladas por el frío. Poner a tono el habitáculo lo antes posible es indispensable en estos días de frío.

Calentando el interior del coche lo antes posible

En invierno y en verano, tener una plaza de garaje es un lujo que no todo el mundo se puede permitir, por ello, muchos conductores tienen que lidiar cada mañana con el hielo y la nieve que dejan el interior de los coches helados (además del parabrisas, evidentemente).

Por lo tanto, lo primero que debemos hacer es quitar el hielo de las lunas y la carrocería, para poder circular con seguridad. Aunque no es recomendable dejar parado el coche durante varios minutos con el motor encendido, puede ser útil ponerlo en funcionamiento unos 30 segundos antes de iniciar la marcha.

Cuando los coches tenían carburador, era habitual tener que dejar el coche encendido unos minutos antes pero con en los vehículos modernos esto no es necesario. Sí hay que tener en cuenta que algunos aceites pueden estar más densos de lo esperado y, por tanto, es interesante calentar el coche mínimamente antes de emprender la marcha.

Además, esto ayudará a que el motor vaya cogiendo temperatura y que la calefacción trabaje cuanto antes para el coche. Ésta empieza a enviar aire caliente cuando el propulsor ha cogido temperatura y, hasta entonces, los ventiladores sólo estarán removiendo el aire frío del interior, lo cual es completamente contraproducente si queremos calentar el interior cuanto antes.

Para que la calefacción actúe, es necesario que el líquido refrigerante del motor pase por un intercambiador de calor que actúa sobre el aire frío del exterior y haciéndolo pasar al interior ya caliente.

Por lo tanto, es mejor esperar un poco para encender la calefacción. Y cuando ya esté en funcionamiento, lo mejor es enviar el aire caliente a los pies y apuntar al cristal (también encender la luneta térmica). Evitaremos que los cristales se empañen y, como el aire caliente tiende a subir, calentaremos más rápidamente el habitáculo.

Tampoco debemos pasarnos con la temperatura ni con la ropa de abrigo. El calor produce somnolencia, lo que puede ser un verdadero problema a primera hora de la mañana o después de comer. En cualquier caso, tanto en invierno como en verano, la temperatura ideal para el habitáculo del coche está entre los 19 y los 21 grados.

De igual modo, evita conducir con el abrigo puesto o con guantes que limiten nuestros movimientos. No sólo es motivo de multa si complica nuestros gestos al volante, además, en pocos minutos tendremos el habitáculo ya caliente y empezaremos a pasar calor, lo que reducirá nuestra atención sobre la carretera.

Foto | iStock

-
La noticia El método más rápido para calentar el interior del coche ahora que llegan el frío y las heladas fue publicada originalmente en Xataka por Alberto de la Torre .



from Xataka https://ift.tt/xuUBino
via IFTTT

La antimateria tiene un gran secreto, y así es como los científicos del CERN están intentando desentrañarlo

La antimateria tiene un gran secreto, y así es como los científicos del CERN están intentando desentrañarlo

Una de las razones por las que la antimateria resulta tan interesante no solo para los físicos de partículas, sino también para las personas a las que nos apasiona la ciencia, es que las herramientas que tenemos aún no nos permiten entender qué papel jugó en el origen del universo. No obstante, el enigma no acaba aquí; tampoco sabemos qué leyes gobiernan la tenue línea que delimita el desequilibrio entre materia y antimateria en el que indagaremos en la última sección de este artículo.

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar brevemente qué es la antimateria y qué la hace tan peculiar. En realidad no es más que una forma de materia constituida por antipartículas, que son partículas con la misma masa y espín que las partículas con las que estamos familiarizados, pero con carga eléctrica opuesta. De esta forma la antipartícula del electrón es el positrón o antielectrón. Y la antipartícula del protón es el antiprotón.

La antimateria tiene una propiedad sorprendente: cuando entra en contacto directo con la materia ambas se aniquilan, liberando una gran cantidad de energía bajo la forma de fotones de alta energía, así como otros posibles pares partícula-antipartícula. Actualmente está siendo estudiada en buena parte de los centros de investigación especializados en física de partículas más importantes del mundo con la esperanza de que conocerla mejor nos ayude a entender algunos de los misterios del cosmos que permanecen fuera de nuestro alcance.

El CERN tiene herramientas para crear y manipular antimateria

Su naturaleza exótica no ha impedido a los científicos encontrar la forma de obtenerla en el laboratorio con el propósito de estudiarla y conocer sus características más a fondo. El CERN, que actualmente es el laboratorio de física de partículas más avanzado del planeta, tiene varios experimentos diseñados expresamente para indagar en los secretos más recónditos de la antimateria recurriendo a interacciones muy energéticas entre las partículas.

Dos de los que ya nos han ofrecido algunos resultados alentadores, y que aún resultan muy prometedores, son ALPHA-g y GBAR. A grandes rasgos en el primero los científicos provocan el choque de dos haces de partículas con un elevado nivel de energía para obtener un átomo de antihidrógeno constituido por un antiprotón y un positrón, de la misma manera en que el protio, que es el isótopo del hidrógeno más abundante en la naturaleza, está constituido por un protón y un electrón.

Uno de los grandes desafíos que conlleva manipular la antimateria es que, como hemos visto, cuando entra en contacto con la materia ambas se aniquilan mutuamente y liberan mucha energía. Esta es la razón por la que los investigadores se han visto obligados a idear estrategias para mantener completamente aislada la antimateria que obtienen en el laboratorio durante el máximo tiempo posible. La estratagema más eficaz consiste en confinarla en una cámara de vacío para evitar que entre en contacto con la materia, y, afortunadamente, ya han conseguido mantenerla en este estado durante varios minutos.

Los experimentos ALPHA-g y GBAR del CERN persiguen entender mejor la interacción entre la antimateria y la gravedad

ALPHA-g (Antihydrogen Laser Physics Apparatus-gravity) estudia algo tan interesante como es la interacción que se produce entre la antimateria y la gravedad debido a que no está claro que tenga las mismas características que definen la interacción entre la gravedad y la materia ordinaria. Por otra parte, GBAR (Gravitational Behaviour of Antimatter at Rest) produce antiiones, los enfría hasta que alcanzan una temperatura cercana al cero absoluto, que es -273,15 ºC, y, después, les roba un positrón para transformarlos en un antiátomo no iónico.

El propósito de estos dos experimentos es estudiar tan a fondo como sea posible la interacción de la antimateria y la gravedad, de manera que los científicos creen que abordar este cometido utilizando dos perspectivas diferentes puede ayudarles a entender mejor esta fuerza fundamental, y, quizá, a elaborar una teoría cuántica de la gravedad.

No obstante, los esfuerzos del CERN no terminan aquí. A finales del año pasado los investigadores del experimento BASE (Baryon Antibaryon Symmetry Experiment) idearon un sorprendente dispositivo diseñado para transportar antipartículas. Suena complejo, y también parece peligroso, pero es una idea muy interesante porque permitiría llevar la antimateria obtenida en el CERN a otras instalaciones en las que podría ser estudiada.

Esta iniciativa aún está en desarrollo, pero, si todo sale como han previsto los científicos, facilitará la colaboración entre distintas instituciones que tienen un propósito común: entender mejor las propiedades de la antimateria. Os hablamos con más profundidad de este peculiar «maletín» para antimateria en el artículo que enlazo aquí mismo.

Experimentobasecern
En esta fotografía podemos ver en acción a uno de los técnicos del CERN involucrados en la puesta a punto de los sofisticados equipos utilizados en el experimento BASE (Baryon Antibaryon Symmetry Experiment).

El gran enigma al que se enfrentan los científicos: la asimetría materia-antimateria

Y, por fin, llegamos al gran misterio en el que está involucrada la antimateria, un enigma del que posiblemente muchas de las personas que estáis leyendo este artículo habéis oído hablar: la asimetría entre la materia y la antimateria.

El modelo de la gran explosión con el que trabajan los astrofísicos predice esta asimetría, que no es otra cosa que una divergencia, posiblemente pequeña si nos ceñimos a la escala cosmológica, en las cantidades iniciales de antimateria y materia. Presumiblemente esta última debía de ser más abundante porque, de lo contrario, lo que nos dice lo que sabemos es que no existiríamos debido a que la materia habría sido aniquilada al entrar en contacto con la antimateria primordial generada durante el Big Bang.

El gran desafío al que se enfrentan los físicos es que el modelo estándar no ha conseguido explicar esta asimetría, que, por otro lado, ha sido comprobada parcialmente en el laboratorio mediante la identificación de la violación de la simetría CP (si queréis conocer mejor estos experimentos os sugiero echar un vistazo a este veterano pero aún valioso artículo de Francisco R. Villatoro).

Afortunadamente, el esfuerzo que están realizando los físicos durante los últimos años está dando sus frutos bajo la forma de hipótesis que, cuando menos, son prometedoras. Una de las más interesantes se apoya en el descubrimiento de un mesón que tiene la peculiar habilidad de cambiar de estado de forma espontánea, alterando su estructura entre materia y antimateria.

La oscilación de los mesones 'charm' puede ser la clave para explicar la asimetría materia-antimateria del universo que ha hecho posible nuestra existencia

Los mesones son partículas subatómicas pertenecientes a la familia de los hadrones que están compuestas por el mismo número de quarks y antiquarks, que se mantienen unidos gracias a la mediación de la fuerza nuclear fuerte. El cambio de estado que los científicos del experimento LHCb han observado en los mesones charm (encanto) puede ser la clave para entender el mecanismo que explica la asimetría materia-antimateria del universo. Os lo explicamos todo con más detalle en el artículo que enlazo aquí mismo, por si os apetece indagar un poco más.

No cabe duda de que estamos viviendo un momento apasionante para todas las personas a las que nos interesan la física de partículas y la cosmología. Podemos estar seguros de que durante los próximos años llegarán más descubrimientos sorprendentes que nos permitirán conocer un poco mejor no solo nuestro origen, sino también qué lugar ocupamos en el universo.

Imágenes: CERN

-
La noticia La antimateria tiene un gran secreto, y así es como los científicos del CERN están intentando desentrañarlo fue publicada originalmente en Xataka por Juan Carlos López .



from Xataka https://ift.tt/8QHT4kj
via IFTTT

'Miércoles' arrolla a 'Stranger Things': ya es la serie más vista en su estreno y en inglés de la historia de Netflix

'Miércoles' arrolla a 'Stranger Things': ya es la serie más vista en su estreno y en inglés de la historia de Netflix

Las reacciones en redes sociales dejaban claro que 'Miércoles', el spin-off de 'La familia Addams' producido y dirigido por Tim Burton para Netflix, estaba gustando (de hecho, a nosotros nos gustó bastante). Pero Netflix ha revelado que se ha convertido en un bombazo inesperado hasta quizás para ellos mismos: es su estreno en inglés más visto de la historia en su primera semana.

Son en total más de 341 millones de horas vistos en esos siete días iniciales, lo que le hace conquistar, por supuesto, el absoluto primer puesto del top de la última semana (le sigue '1899' con una marca muy inferior: algo más de 87 millones). Pero también el histórico en inglés: ha superado los 335 millones de horas que consiguió 'Stranger Things 4' en su estreno, la semana del 30 de mayo al 5 de junio.

El "en inglés" es una apreciación importante, porque de momento, el reinado de la primera semana lo mantiene 'El juego del calamar' y sus más de 571 millones de horas vistas entre el 27 de septiembre y el 3 de octubre de 2021, a lo que hay que sumar otras dos semanas más superando los 400 millones de euros. La hazaña de 'Miércoles, con todo, no es nada desdeñable: Netflix estima que la han visto unos 50 millones de hogares.

De momento, y aunque ha habido declaraciones de los creadores acerca de la orientación que tendría una segunda temporada, parece más o menos obvio que ésta será confirmada en las próximas semanas. De momento, 'Miércoles' tiene un objetivo más colosal frente a sí: esos más de 1.352 millones de visionados en sus primeros 28 días que acumula 'Stranger Things 4'. Entre monstruos anda el juego.

-
La noticia 'Miércoles' arrolla a 'Stranger Things': ya es la serie más vista en su estreno y en inglés de la historia de Netflix fue publicada originalmente en Xataka por John Tones .



from Xataka https://ift.tt/rsavCoy
via IFTTT

LG y MSI van a lanzar monitores ultrapanorámicos (muy) curvos. Hay otra sorpresa, y se llama OLED

LG y MSI van a lanzar monitores ultrapanorámicos (muy) curvos. Hay otra sorpresa, y se llama OLED

En Xataka hemos tenido la fortuna de probar tanto el Samsung Odyssey G9 como el Samsung Odyssey Neo G9, y en ambos casos la experiencia ha sido fantástica.

Estas propuestas eran las más espectaculares en el segmento de los monitores para gaming, pero atentos, porque muy pronto llegarán competidores. Tanto LG como MSI lanzarán myu pronto sus propios monitores ultrapanorámicos curvos, y la cosa promete, sobre todo por el uso de la tecnología OLED.

Gigantes y ambiciosos

El próximo 12 de diciembre LG presentará los primeros monitores gaming OLED a 240 Hz del mercado. Uno de ellos será un modelo de 27 pulgadas que tendrá un precio de 1.000 dólares del que ya había algunos datos, pero ahora conocemos su segunda opción, que es aún más sorprendente.

Captura De Pantalla 2022 11 30 A Las 8 40 53

Se trata del LG-45GR95QE, un monitor OLED de 45 pulgadas con formato de pantalla 21:9 y una alucinante curvatura 800R que va incluso más allá de la 1000R de los Samsung Odyssey G9.

Este monitor cuenta con una resolución de 3.440 x 1.440, así que tenemos algunas pulgadas menos y también menos área de trabajo disponible, pero esas 45 pulgadas parecen un acierto, sobre todo teniendo en cuenta que las 49 pulgadas del Odyssey G9 eran en ciertos casos demasiado abrumadoras.

La tecnología OLED es sin duda su gran baza, sobre todo frente al primer modelo de Samsung. El segundo contaba con un panel miniOLED, pero en LG además logran ofrecer tasas de refresco de hasta 240 Hz y una latencia que según el fabricante será espectacular: tan solo 0,03 ms.

El segundo de los monitores que los gamers seguramente tendrán muy en cuenta próximamente es el MSI "Project 491C" —aún sin nombre definitivo—. Este modelo parece que irá más allá en cuanto a formato de pantalla y será 32:9, como los de Samsung.

En este caso el monitor presumirá de panel QD-OLED, lo que podría contribuir aún más a ofrecer unos colores más vivos y más brillo cuando lo necesitemos.  Alienware ya ofreció un modelo similar (aunque más pequeño) a principios de año, pero MSI quiere dar aquí el do de pecho.

Este monitor contará también con tasa de refresco de 240 Hz, y será en el CES 2023 a principios de enero cuando conozcamos muchos más detalles y su precio, que también es una incógnita de momento para el modelo de LG.

Tendremos pues dos interesantes alternativas a los Odyssey G9, pero eso no es todo: Samsung prepara su propio sucesor del Odyssey Neo G9, y será un modelo ultrapanorámico con resolución 8K. Irá por tanto más allá en ese parámetro, aunque el resto de detalles son aún un misterio. Como en el caso del modelo de MSI, lo conoceremos en el CES 2023.

-
La noticia LG y MSI van a lanzar monitores ultrapanorámicos (muy) curvos. Hay otra sorpresa, y se llama OLED fue publicada originalmente en Xataka por Javier Pastor .



from Xataka https://ift.tt/TxVNA6L
via IFTTT

Cinco mejores ofertas en portátiles gaming baratos que puedes comprar en la CyberWeek de PcComponentes

Cinco mejores ofertas en portátiles gaming baratos que puedes comprar en la CyberWeek de PcComponentes

PcComponentes ha alargado el Cyber Monday toda esta semana, lo que te da más tiempo para comprar tus regalos de Navidad al mejor precio (aquí tienes una selección para gamers por menos de 50 euros) o para cambiar de ordenador aprovechando sus chollos. Si buscas un portátil gaming barato, estás de suerte porque vas a encontrar descuentazos de hasta el 70%, o lo que es lo mismo, varios cientos de euros menos. Aquí tienes sus mejores ofertas.

Asus Tuf Gaming F15 Fx506lhb Hn324
  • Uno de los portátiles gaming baratos más interesantes es este ASUS TUF Gaming F15 FX506LHB-HN324, a 649 euros y también en Worten, 35% de descuento para un equipo todoterreno ideal para uso general intensivo y para gaming esporádico. Con un procesador Intel Core i5-10300H acompañado por 16GB de memoria RAM, con SSD de 512GB y tarjeta gráfica dedicada GTX 1650. Con pantalla de 15.6" FHD y sin sistema operativo.
ASUS TUF Gaming F15 FX506LHB#B09TRDT8DC - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-10300H, 16GB RAM, 512GB SSD, GTX 1650 4GB, Sin Sistema Operativo) Negro Hoguera - QWERTY español

ASUS TUF Gaming F15 FX506LHB#B09TRDT8DC - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-10300H, 16GB RAM, 512GB SSD, GTX 1650 4GB, Sin Sistema Operativo) Negro Hoguera - QWERTY español

Asus Tuf Gaming F15 Fx506he
  • Con un 37% de descuento está el ASUS TUF Gaming F15 FX506HE-HN012, es decir, 749 euros. La principal diferencia con el anterior está en la gráfica, en este caso un modelo más moderno y con ray tracing como el RTX 3050Ti. Cuenta además con procesador Intel Core i5-11400H, 16GB de memoria RAM, SSD de 512GB y pantalla de 15.6" FHD a 144 Hz. Sin SO.
ASUS TUF Gaming F15 FX506HE-HN012 - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-11400H, 16GB RAM, 512GB SSD, GeForce RTX 3050 Ti 4GB, Sin Sistema Operativo) Negro Grafite - Teclado QWERTY español

ASUS TUF Gaming F15 FX506HE-HN012 - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-11400H, 16GB RAM, 512GB SSD, GeForce RTX 3050 Ti 4GB, Sin Sistema Operativo) Negro Grafite - Teclado QWERTY español

Msi Gf63 Thin 11uc 447xes
  • Si quieres un portátil gaming precisamente porque vas usarlo en movilidad, entonces seguro que aprecias virtudes de este MSI GF63 Thin 11UC-447XES como sus 21,7 mm de grosor y 1,86 kg de peso, bastante más estilizado que la vasta mayoría de equipos gaming. Con un descuento del 28% que lo deja en 749 euros, este equipo dispone de procesador Intel Core i5-11400H, 16GB de memoria RAM, SSD de 512GB y una GPU con ray tracing como la RTX 3050, que ofrece una buena experiencia ajustando opciones gráficas. Con pantalla de 15.6" FHD a 144Hz y sin SO.
MSI GF63 Thin 11UC-447XES Intel Core i5-11400H/16GB/512GB SSD/RTX 3050/15.6"

MSI GF63 Thin 11UC-447XES Intel Core i5-11400H/16GB/512GB SSD/RTX 3050/15.6"

Gigabyte G5 Kd 52es123sd
  • Si tu idea es jugar con cierta intensidad y exigencia, entonces este Gigabyte G5 KD-52ES123SD a 849 euros es uno de los mejores candidatos dentro de los portátiles gaming baratos gracias a su GPU, la mainstream RTX 3060. Le acompañan un procesador Intel Core i5-11400H, 16GB de memoria RAM, un SSD de 512GB, panel de 15.6" FHD. Sin SO.
PORTATIL GIGABYTE G5 KD-52ES123SD i5-11400H 3060P 16GB 512GB 15,6" Dos

PORTATIL GIGABYTE G5 KD-52ES123SD i5-11400H 3060P 16GB 512GB 15,6" Dos

Acer Nitro 5 An515 58 7365
  • Si miras al futuro y prefieres gastar algo más y contar con hardware de última generación, ojo a este Acer Nitro 5 AN515-58-7365 que baja 450 euros hasta los 859 euros. En este caso con un moderno y potente procesador Intel Core i7-12700H, con 16GB de memoria RAM, SSD de 512GB y una RTX 3050Ti. Y si prefieres que la GPU sea una RTX 3060, ahórrate 500 euros en el Acer Nitro 5 AN515-58-7571, a 999 euros. En ambos casos con panel 15,6 FHD (aunque el primero a 144 Hz y el segundo a 165Hz) y sin SO.
Acer Nitro 5 AN515-58-7365 Intel Core i7-12700H/16GB/512GB SSD/RTX 3050Ti/15.6"

Acer Nitro 5 AN515-58-7365 Intel Core i7-12700H/16GB/512GB SSD/RTX 3050Ti/15.6"

Más ofertas

Si te haces de Amazon Prime, dispones de 30 días de prueba gratis (después 49,90 euros al año) para disfrutar de envíos rápidos gratis, accesorio prioritario a ofertas, servicios como Prime Video, Prime Music y almacenamiento de fotos ilimitado. Además, si eres estudiante, hacerte de Prime Student cuesta la mitad y dispones de 90 días de prueba. También puedes probar gratis durante 30 días servicios como Kindle Unlimited o Audible.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

En Xataka Selección publicamos las mejores ofertas en tecnología, informática y electrónica de los principales comercios de internet. Los precios y disponibilidad pueden variar tras la publicación.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka

-
La noticia Cinco mejores ofertas en portátiles gaming baratos que puedes comprar en la CyberWeek de PcComponentes fue publicada originalmente en Xataka por Eva Rodríguez de Luis .



from Xataka https://ift.tt/xOyTcY8
via IFTTT

La guerra del OLED ha empezado: LG solo fabricará paneles OLED EX para batir a Samsung

La guerra del OLED ha empezado: LG solo fabricará paneles OLED EX para batir a Samsung

La entrada de Samsung en el mercado de los paneles OLED de gran formato como única alternativa a LG ha puesto fin al dominio absoluto de esta última marca. Durante nuestras pruebas los televisores S95B de Samsung y A95K de Sony, que son los primeros que apuestan por un panel QD-OLED fabricado por Samsung, nos han sorprendido por su calidad de imagen global, y, sobre todo, por la riqueza con la que reproducen el color.

No cabe duda: las matrices orgánicas QD-OLED son una alternativa muy sólida a los paneles W-OLED de LG. Y, como cabía prever, esta última compañía no se ha sentado a esperar para ver cómo reacciona el mercado. De hecho, no ha tardado en enseñar los dientes. Sus paneles OLED EX llegaron a finales del año pasado para plantear batalla a los QD-OLED de su competidor, pero esta no es en absoluto la única arma que blande LG.

Todos los paneles serán EX. Y en la retaguardia se atrincheran los MLA

Las matrices OLED EX de LG nos prometen superar en un 30% la capacidad de entrega máxima de brillo de los paneles OLED de tercera generación. Para lograrlo los ingenieros de esta marca han introducido en la receta un ingrediente nuevo, el deuterio, que es un isótopo del hidrógeno que durante los últimos años está haciendo mucho ruido debido a su participación junto al tritio en el combustible utilizado en los reactores experimentales de fusión nuclear.

Según LG, las matrices OLED EX tienen un brillo un 30% más alto y son más eficientes

No obstante, esto no es todo. Los paneles OLED EX conviven con un nuevo algoritmo de procesado que, según LG, recupera más información de detalle, contribuye a una reproducción más precisa del color e incrementa la eficiencia energética del panel. Todo esto suena muy bien, y esperamos contrastarlo tan pronto como uno de los primeros televisores equipados con estas matrices caiga en nuestras manos.

En cualquier caso, la auténtica noticia es que LG ha confirmado que en adelante todas las matrices orgánicas que producirá en sus fábricas de Corea del Sur y China serán de tipo EX. Aun así, esto no significa que los demás paneles de esta marca, como los evo de tercera generación, vayan a desaparecer del mercado. Con toda probabilidad seguiremos viéndolos en las tiendas hasta que el stock actual se haya vendido completamente (cabe la posibilidad de que algunos de ellos tengan descuentos apetecibles).

El propósito de esta maniobra de LG es claro: ha decidido poner toda la carne en el asador para evitar que Samsung atraiga a sus clientes. Y una manera de intentarlo pasa por maximizar la producción de sus matrices más avanzadas, que no son otras que las OLED EX. Además, la fabricación a gran escala de estos paneles debería reducir su coste, y, por tanto, también incrementar su competitividad.

No obstante, esta no es la única arma de LG. Como os contamos en mayo, ya tiene preparadas las matrices MLA (Meta-lit Lens Array), que acabarán reemplazando a los paneles EX. Esta tecnología recurre a unas microlentes alojadas sobre los LED orgánicos para actuar sobre el paso de la luz, lo que permite a estos paneles, según LG, entregar un brillo máximo de 2.000 nits sin degradar la reproducción del color. Suena muy bien. Cuando lleguen veremos si cumplen lo prometido, pero podemos estar seguros de que 2023 será un año apasionante para los entusiastas de los televisores.

-
La noticia La guerra del OLED ha empezado: LG solo fabricará paneles OLED EX para batir a Samsung fue publicada originalmente en Xataka por Juan Carlos López .



from Xataka https://ift.tt/63u145K
via IFTTT

Promocionar un Pixel sin haberlo probado sale caro: multa millonaria a Google por publicidad engañosa

Promocionar un Pixel sin haberlo probado sale caro: multa millonaria a Google por publicidad engañosa

Pagar a la radio para hablar de las bondades de un teléfono aunque el interlocutor no lo hubiese probado parecía una buena idea. Hasta que la Comisión Federal de Comercio de los Estados Unidos (FTC) te demanda por publicidad engañosa. Google se enfrenta a una multa de 9,4 millones de dólares por haber pagado a "personalidades de la radio" que no habían probado el teléfono.

Anunciar que has probado un producto sin haberlo probado no sale bien

La FTC y algunos de los fiscales generales del estado han presentado una demanda contra Google. Se les reclama una cuantía de 9,4 millones de dólares en multas por haber pagado a personas influyentes para promocionar productos que nunca usaron. Según el director de la Oficina de Protección al Consumidor, esto supone "una flagrante falta de respeto por las reglas de veracidad en la publicidad”.

Hablar en primera persona de un producto sin haberlo recibido supone publicidad engañosa, según la FTC

Según la FTC, en 2019, con el lanzamiento del Google Pixel 4, Google contrató a iHeartMedia (una gran cadena de radio en EEUU) y a otras 11 cadenas de radio, promocionando guiones en los que los anunciantes debían hablar en primera persona y haciendo ver que habían probado el teléfono. "Es mi cámara de teléfono favorita, he hecho fotos con él excelentes" y demás líneas, han sido el detonante de esta actuación por parte de la Comisión.

El principal problema es que ninguna de las personalidades había, siquiera, recibido el teléfono en el momento de realizar estos anuncios, por lo que ni poseían el teléfono ni habían podido usarlo. La demanda indica así que estas tergiversaciones por parte de los anunciantes violan las leyes de la FTC.

Google está ahora en plazo para alegar. En caso de no resolverse el caso a su favor, tendrá que pagar 9,4 millones de dólares en multas, una por cada uno de los 29.000 anuncios "engañosos" que promocionaban el Pixel 4.

Más información | FTC

-
La noticia Promocionar un Pixel sin haberlo probado sale caro: multa millonaria a Google por publicidad engañosa fue publicada originalmente en Xataka por Ricardo Aguilar .



from Xataka https://ift.tt/TfWn06N
via IFTTT

Meta se está quedando sin tiempo

Meta se está quedando sin tiempo

En una empresa hay errores que se diluyen en poco tiempo, por ejemplo, dar una mala contestación a un cliente importante y que tres comerciales tengan que invitarle a una cena para pedir perdón, asegurar que no volverá a ocurrir y ofrecer un descuento a cambio de que no cambie de proveedor.

Luego hay errores de los que cuestan dinero. Por ejemplo, sobredimensionar un departamento y luego estar años haciendo el puzzle de las recolocaciones. Y luego están los errores que cambian el destino de compañías enteras. Es probable que Zuckerberg haya cometido uno de estos en Meta.

Urgencias a largo plazo

Meta creció exponencialmente durante toda la década pasada gracias a Facebook, se hizo acertadamente con Instagram como el vehículo que continuaría con ese crecimiento durante la transición del escritorio al móvil, y puso el colofón con un crecimiento explosivo tras la pandemia.

Como tantas otras tecnológicas, le debió resultar difícil imaginar entonces, otoño de 2021, lo oscuro que se pondría todo poco después. En aquel último trimestre del año superó las expectativas de ingresos, reventando el contador muy por encima de los 30.000 millones de dólares en solo noventa días, una cantidad a la que nunca habían llegado antes y que todavía no han vuelto a alcanzar.

Los ingresos no es que se hayan hundido durante 2022, pero ya no experimentan el crecimiento de antaño. El problema, en cualquier caso, está en el flujo de caja libre de Meta.

Veamos algunos titulares de medios financieros en los últimos meses de 2021:

No se trata de ser ventajista, sino de señalar el buen clima que rodeaba a Meta hace un año. Especialmente los primeros trimestres de 2021 fueron colosales en cuanto a generación de flujo de caja libre y le permitieron acabar el año con casi 13.000 millones de dólares. Hoy esa cantidad es de 0 dólares.

En los últimos tiempos Meta ha disparado sus costes mientras sus ingresos se han reducido. Esta situación tiene varios culpables:

  • iOS 14.6. La versión del sistema operativo del iPhone que fue lanzada a finales de 2020 e incluía la medida de transparencia de rastreo, que permitía al usuario solicitar a sus aplicaciones no ser rastreado. Esta medida cercenó la capacidad de Meta para segmentar su publicidad, haciéndola menos efectiva, y por tanto, más barata.
  • TikTok. La aplicación que puso a bailar al mundo es una incómoda piedra en el zapato de Meta. Y cada vez más grande. Al contrario que con Snapchat, la réplica de Instagram incluyendo su función no ha podido destronarla. Y esta le va comiendo terreno.
  • El metaverso. Zuckerberg se puso como objetivo liderar la siguiente gran ola tras el smartphone y en desarrollar esa plataforma se terminó fundiendo ese flujo de caja libre. Una apuesta tan enorme como arriesgada: más de una quinta parte de su facturación anual se fue en I+D, y la mayoría de esa cantidad fue al metaverso.

¿Cuál es el problema entonces? El tiempo. Nada hace pensar que Apple vaya a dar marcha atrás en su política de transparencia y consentimiento para el rastreo (otro día hablamos de que no es únicamente un gesto hacia el usuario, sino un incentivo para que la monetización llegue vía compras in-app y suscripciones, donde cobran una comisión). Tampoco hay indicios de que TikTok vaya a bajar la persiana.

¿Y el metaverso? Pues eso. El tiempo. El tiempo para desarrollarlo de forma eficaz para lograr un producto convincente (lo logrado hasta ahora es bastante poco atractivo). El tiempo para captar a desarrolladores que hagan de él un escenario social y entretenido como para que empiece a ser considerado un lugar al que acudir. El tiempo para que los cascos de realidad virtual se hagan algo más asequibles. Y sobre todo, el tiempo para que los usuarios encuentren la motivación para hacerse con uno.

Demasiado tiempo cuando el flujo libre de caja se ha esfumado y las estimaciones que dio la empresa en su última presentación trimestral de resultados hablaban de unos gastos anuales consolidados de unos 100.000 millones de dólares (entre un 8% y un 15% por encima de lo esperado). Demasiado tiempo cuando en un momento en el que harían falta más ingenieros, diseñadores y comerciales que nunca ha habido que acometer despidos.

Demasiado tiempo cuando hay un cambio de paradigma de por medio. El iPhone inauguró la era del smartphone moderno pero esta figura no empezó a hacerse masiva hasta que pasaron cinco años desde aquel modelo. ¿Cuánto puede llevar algo que ni siquiera tiene un predecesor claro y que implica un cambio en la forma de interactuar?

Meta se acostumbró a un estilo de vida en el que podía reinvertir cuanto quisiera de sus ganancias porque las del ejercicio posterior serían no menos de un 30% superiores. Ahora esos fundamentos se tambalean, ha habido que recurrir a los despidos y queda esperar a que los Reels combatan lo suficientemente bien a TikTok, y que los cascos Oculus, muy superiores al precio promedio que necesitó el smartphone para popularizarse, puedan dar frutos más pronto que tarde.

Meta también tenía en marcha un proyecto de reloj inteligente orientado a ser la primera pata de su sistema de interfaces neuronales, pero ya fue cancelado. No era una forma de asegurar ingresos a corto plazo, sino todo lo contrario. El metaverso tampoco asegura facturación rápida, pero Meta ya ha invertido demasiado en él como para recular sin más. Sería mucho mejor si pudiesen acelerarse los plazos, pero no. Meta necesita que el reloj avance mucho más rápido. Pero 2023 tampoco tiene por qué ser mucho mejor.

-
La noticia Meta se está quedando sin tiempo fue publicada originalmente en Xataka por Javier Lacort .



from Xataka https://ift.tt/dnOXsv6
via IFTTT

Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

Internet es un misterio. Uno enorme. O, al menos, lo parece. Muchas personas utilizamos esta red todos los días, y, además, lo hacemos durante muchas horas sin ser realmente conscientes de la complejidad que la hace posible. De todo lo que hay debajo. Hasta que algo falla y nos vemos obligados temporalmente a dejar de utilizar algunos de sus servicios, algo que ha sucedido durante los últimos meses con Amazon, Facebook, Instagram, Twitch, WhatsApp o Reddit, entre muchas otras plataformas.

Precisamente, la razón por la que de cuando en cuando algo se rompe en internet, algo con la suficiente entidad para que los usuarios nos demos cuenta, es que todos sus engranajes deben funcionar con la precisión del mecanismo de un reloj mecánico. Y el problema es que esta red es tan grande, involucra tanta tecnología, tantos equipos de red, tantas personas y tantos intereses que, inevitablemente, de vez en cuando algo falla. Y el origen del error puede ser humano o estrictamente técnico.

Todos sabemos que, en realidad, en internet no hay magia, pero sí mucha tecnología. Y en este artículo os proponemos indagar en ella con el propósito de que nos resulte más familiar y menos misteriosa. En un reportaje con una extensión limitada y una ambición didáctica como este no se puede recoger toda la complejidad de la innovación que hace posible que esta gigantesca red exista y funcione, por lo que inevitablemente tendremos que ceñirnos a algunas de sus tecnologías fundamentales.

Nuestra intención es que los lectores que estáis menos familiarizados con todo esto os sintáis un poco más cómodos cuando leáis u oigáis hablar acerca de protocolos, direcciones IP o algoritmos de control, entre otros elementos. Aun así, este artículo solo pretende ofreceros una mirada asequible y superficial de internet, por lo que en la última sección os propondremos algunas lecturas que os pueden ayudar a profundizar e ir mucho más allá si os apetece conocer con más detalle cómo funciona esta enorme y compleja red.

Todo tiene un nombre en internet: las direcciones IP

Todos los dispositivos que tienen la capacidad de conectarse a internet, bien sea a través de nuestra fibra óptica doméstica, bien utilizando una conexión 4G o 5G como las de nuestros teléfonos móviles, deben ser capaces de identificarse con un nombre único que no esté siendo utilizado por ningún otro dispositivo. De lo contrario, si dos o más equipos tuviesen el mismo nombre se produciría una incongruencia debido a que no sabríamos a cuál debemos entregar un paquete de datos determinado. Ese nombre único es, precisamente, la dirección IP.

IPv4 tiene algunas limitaciones importantes debido a que es la primera infraestructura de direccionamiento implementada en internet

Su función es esencialmente la misma de las direcciones postales que nos permiten recibir paquetes en nuestra casa, y que nos identifican con precisión para evitar que vayan a parar a un destino erróneo. Sin embargo, hay una diferencia importante entre las direcciones IP y las direcciones postales: las primeras pueden variar, y las segundas no (o no suelen hacerlo a menos que se cambie el nombre de la calle en la que residen). Las direcciones IP que no cambian se conocen como fijas, y las que varían son dinámicas precisamente debido a la posibilidad de que cambien en un plazo de tiempo determinado.

La mayor parte de los proveedores de acceso a internet nos proporciona una dirección IP dinámica, y, además, los dispositivos que tenemos en casa, y que se conectan a la red a través de nuestra conexión ADSL o de fibra óptica, también suelen tener una dirección IP dinámica. Sin embargo, estos dispositivos no tienen la capacidad de elegir qué dirección IP quieren tener; el responsable de asignársela es un equipo que forma parte de la red y que utiliza un protocolo conocido como DHCP (Dynamic Host Configuration Protocol) para decidir cuál debe entregar a cada dispositivo.

Ya tenemos una idea relativamente certera acerca de qué es una dirección IP, por lo que ahora nos interesa echar un vistazo a su aspecto. El protocolo que se responsabiliza de describir qué formato tienen y cuál es su significado se conoce como IPv4 (Internet Protocol version 4), pero tiene algunas limitaciones importantes debido a que es la primera infraestructura de direccionamiento implementada en internet, y esta red ha crecido una barbaridad durante las últimas dos décadas.

De hecho, ha crecido tanto, y crecerá aún mucho más en el futuro, que ha sido necesario diseñar una infraestructura de direccionamiento más avanzada que sea capaz de acoger la enorme cantidad de dispositivos que se conectarán a ella durante los próximos años. Esta nueva arquitectura se llama IPv6 (Internet Protocol version 6), y propone direcciones con un tamaño de 128 bits, por lo que son cuatro veces mayores que las direcciones de 32 bits de IPv4 precisamente con el objetivo de poner a nuestro alcance un mapa de direcciones IP mucho mayor que sea capaz de resolver nuestras necesidades a medio y largo plazo.

En el artículo que enlazo aquí mismo explicamos con bastante detalle cómo son las direcciones del protocolo IPv6 y en qué se diferencian de las IPv4, pero aquí van algunas pinceladas sobre ambas. No obstante, antes de que sigamos adelante nos interesa saber que las direcciones IP están incluidas en los campos de dirección de origen y dirección de destino de los paquetes de datos. Y es comprensible que sea así debido a que es necesario que cada uno de los paquetes que viajan a través de internet transporte consigo la dirección IP de la máquina que lo ha enviado y la del equipo que debe recibirlo para asegurar que llegará a su destino correctamente.

Ipv6

Las direcciones IP asignadas mediante el protocolo IPv4 son números de 32 bits y se escriben en notación decimal con puntos, por lo que tienen el formato 192.36.7.22. La menor dirección IP es 0.0.0.0, y la mayor es 255.255.255.255. Las direcciones asignadas por el protocolo IPv6, sin embargo, tienen una longitud de 128 bits, como hemos visto, y se escriben en ocho grupos de cuatro dígitos hexadecimales cada uno de ellos, por lo que tienen la forma 2001:0ab8:85b3:0000:0000:8a2e:0260:7224.

Utilizar muchos más bits permite a la arquitectura de direccionamiento IPv6 poner en nuestras manos un mapa de direcciones mucho más amplio que IPv4. Un último apunte: según Google actualmente algo menos del 38% de sus usuarios accede a este buscador a trav´es de IPv6.

Estos son el corazón y el cerebro de internet: el modelo TCP/IP y el protocolo IP

Los investigadores que dieron forma a la red que ha evolucionado hasta transformarse en la internet que todos conocemos hoy se dieron cuenta de que era imprescindible definir una arquitectura que describiese con precisión cómo debía ser esa red y de qué capas o niveles debía estar compuesta.

El modelo de referencia TCP/IP implementa cuatro capas: acceso a la red, interred, transporte y aplicación

Su propósito era delimitar el alcance de esos niveles, de manera que cada uno de ellos se encargase de resolver unos determinados problemas y evitar así que los niveles que tiene por encima deban esforzarse para solucionar esos mismos desafíos. De alguna forma es una estrategia similar a la filosofía «divide y vencerás» de la que posiblemente todos hemos oído hablar en alguna ocasión.

El modelo de referencia OSI (interconexión de sistemas abiertos) propuesto por la Organización Internacional de Normalización (ISO) no es realmente una arquitectura de red debido a que no describe los servicios y los protocolos que debe utilizar cada capa.

Es un modelo importante que describe siete capas o niveles diferentes (física, enlace, red, transporte, sesión, presentación y aplicación), pero su relevancia se ciñe sobre todo al ámbito académico, por lo que no indagaremos más en él para prestar toda nuestra atención al modelo de referencia TCP/IP, que es la arquitectura de red flexible que utiliza internet.

A diferencia del modelo OSI, esta arquitectura implementa solo cuatro capas y no siete. En la base y en contacto con el hardware de nuestros equipos reside la capa de acceso a la red. TCP/IP no establece con precisión cómo debe implementarse este nivel, por lo que solo estipula de una forma un tanto ambigua que el dispositivo debe poder conectarse a la red para permitir el envío de paquetes IP.

Justo encima reside el nivel de interred, que es considerado por muchos autores el auténtico corazón de esta arquitectura de red. Su función es permitir que nuestros dispositivos puedan entregar nuestros paquetes de datos a la red a la que están conectados.

La capa de interred tiene una peculiaridad muy interesante: debe garantizar que los paquetes de datos lleguen a su destino, aunque pueden hacerlo en un orden diferente a aquel en el que fueron enviados. Las capas superiores de la arquitectura son las responsables de ordenar los paquetes correctamente si es necesario.

Para Tanenbaum el protocolo IP es «el pegamento que mantiene unida internet»

Para llevar a cabo su cometido esta capa define con precisión qué estructura deben tener los paquetes de datos, y también utiliza un protocolo conocido como IP (Internet Protocol) que, acertadamente, el influyente y muy respetado Andrew S. Tanenbaum califica como «el pegamento que mantiene unida internet». Su descripción refleja claramente lo importante que es este protocolo.

De hecho, este protocolo implementa los recursos necesarios para que nuestros paquetes de datos lleguen a su destino. No importa si la máquina que los envía y la que debe recibirlos forman parte de dos redes diferentes, y tampoco si entre ambas hay muchas otras redes que deberán actuar como intermediarias.

Internet es un auténtico laberinto, por lo que podemos imaginar el protocolo IP como el mapa que utilizan los paquetes de datos de nuestros dispositivos para saber qué camino deben seguir para llegar a su destino. Y, por supuesto, los paquetes que deben recibir nuestros dispositivos procedentes de otras máquinas utilizan este mismo recurso para seguir el camino inverso.

Las dos capas de la arquitectura TCP/IP que aún no hemos visto son los niveles de transporte y aplicación. El primero de ellos está justo encima de la capa de interred, lo que significa que esta última tiene la responsabilidad de proporcionarle los servicios que necesita para llevar a cabo su cometido. De igual forma que el protocolo IP es el corazón de la capa de interred, el protocolo TCP es el cerebro de la capa de transporte. El cometido de este nivel es permitir que las dos máquinas involucradas en la conversación a trav´és de internet, la que envía los paquetes y la que los recibe, puedan mantener su diálogo.

Modeloosi
Estructura de niveles o capas propuesta por el modelo OSI (interconexión de sistemas abiertos).

El protocolo TCP fragmenta los datos y construye los paquetes en la máquina que los emite, mientras que en el equipo que los recibe se encarga de reconstruir el mensaje original a partir de los paquetes de datos que van llegando. La capa de transporte también utiliza otro protocolo conocido como UDP (User Datagram Protocol), que podemos traducir al español como protocolo de datagrama de usuario.

A diferencia de TCP, UDP permite enviar paquetes de datos a través de internet sin necesidad de haber establecido previamente una conexión. Tampoco se encarga de controlar el flujo de los paquetes, que pueden llegar al destino desordenados, y no estipula una confirmación de entrega. De alguna forma UDP es más anárquico que TCP, por lo que solo encaja en aquellas aplicaciones que implementan estas características por sí mismas.

Aún nos queda echar un vistazo a la última capa de la arquitectura TCP/IP: el nivel de aplicación. Esta capa está colocada encima del nivel de transporte, y contiene todos los protocolos de alto nivel, que son los que están más cerca de las aplicaciones que utilizamos los usuarios. Dos de los que repasaremos más adelante por su importancia son DNS y HTTP, aunque la capa de aplicación también contiene muchos otros (algunos están en desuso), como FTP o TELNET.

El viaje que siguen nuestros datos en internet es una auténtica aventura

Como hemos visto, la capa de interred se responsabiliza de transportar los paquetes de datos desde el origen hasta el destino, y para lograrlo con frecuencia deben pasar por muchos enrutadores intermedios. Estos dispositivos se encargan a grandes rasgos de actuar como intermediarios entre unas subredes y otras, y para hacerlo posible recogen los paquetes que reciben y se los envían al siguiente enrutador. Eso sí, esta decisión se lleva a cabo de una forma inteligente.

La capa de interred debe proporcionar a los enrutadores la información que necesitan conocer para elegir la trayectoria adecuada que debe seguir cada paquete de datos

Esto quiere decir, sencillamente, que la capa de interred debe proporcionar a los enrutadores la información que necesitan conocer para elegir la trayectoria adecuada que debe seguir cada paquete de datos. Y, como podemos intuir, no es sencillo hacerlo debido a que el elevado volumen de datos que circula a través de internet de forma permanente requiere balancear el tráfico para evitar que unas líneas de comunicación se saturen mientras otras permanecen infrautilizadas.

Para resolver este desafío la capa de red cuenta con los algoritmos de encaminamiento, que se encargan de decidir qué ruta debe seguir cada paquete de datos teniendo en cuenta el tráfico y las condiciones en las que se encuentra cada subred en ese momento. Cabe la posibilidad de que dos paquetes que tienen un mismo destino y un único origen sigan caminos diferentes si las circunstancias de la red lo exigen para que sean transportados de la forma óptima.

Afortunadamente no es necesario que conozcamos con detalle qué propone cada algoritmo de encaminamiento, pero es interesante saber que hay unos cuantos, y cada uno de ellos pretende resolver el transporte de los paquetes de datos recurriendo a una estrategia diferente. La capa de interred también dispone de algoritmos de control de la congestión, que, como podemos intuir, pretenden evitar que una subred se sature.

Cuando aparece este problema el rendimiento de esa línea se degrada debido a que los enrutadores son incapaces de administrar todo el tráfico y comienzan a perder paquetes de datos. De alguna forma la gestión del tráfico en internet no es muy diferente de la administración del tráfico en las carreteras.

Los DNS nos permiten utilizar internet de una forma mucho más sencilla

Unos párrafos más arriba hemos visto que las direcciones IP nos permiten identificar con precisión todos los dispositivos y los equipos de red que intervienen en internet. Las asignadas mediante el protocolo IPv4 se escriben en notación decimal con cuatro grupos de tres dígitos, por lo que tienen, como hemos visto, esta forma: 192.36.7.22. Y las asignadas mediante IPv6 son aún más complicadas porque se escriben en ocho grupos de cuatro dígitos hexadecimales cada uno de ellos, adquiriendo la forma 2001:0ab8:85b3:0000:0000:8a2e:0260:7224.

Los DNS traducen las cadenas ASCII que nosotros podemos recordar en direcciones de red

Para una persona es muy complicado memorizar estas ristras de números y caracteres, por lo que sería un problema difícil de sortear que nos viésemos obligados a introducir en las aplicaciones que utilizamos habitualmente la dirección IP del equipo en el que se aloja la página web que queremos consultar, o la de la máquina destinataria del mensaje de correo electrónico que estamos a punto de enviar.

Afortunadamente, los DNS (Domain Name System), o sistema de nombres de dominio, nos lo ponen mucho más fácil. Y es que son el mecanismo que se encarga de traducir las cadenas ASCII que nosotros podemos recordar con relativa facilidad, como 'pepito.grillo@xataka.com' o 'www.xataka.com', en las direcciones de red que manejan los protocolos de internet.

Hasta aquí llega la parte sencilla, que es la realmente importante desde el punto de vista de un usuario y la que merece la pena conocer. A quien le apetezca saber algo más acerca de este recurso le interesará estar al tanto de que los DNS se implementan como un sistema de nombres jerárquico basado en dominio bajo la forma de una base de datos distribuida.

Para llevar a cabo la traducción de una cadena ASCII a una dirección de red las aplicaciones llaman a un procedimiento conocido como resolvedor y le pasan como parámetro la cadena que es necesario traducir. A continuación, el resolvedor envía un paquete UDP a un servidor DNS local, que localiza el nombre y le devuelve la dirección IP asignada a esa cadena ASCII. Por último, el resolvedor entrega la dirección de red a la aplicación que ha solicitado la traducción, que a partir de ahí podrá establecer una conexión TCP con la máquina destino o enviarle paquetes UDP.

Qué es en realidad la web y por qué el protocolo HTTP nos ha traído hasta aquí

La web ha sido un éxito monumental. De hecho, muchas personas creen que es lo mismo que internet, pero no lo es; tan solo es un servicio que nos permite acceder a un determinado tipo de contenido alojado en algunas de las máquinas que forman parte de esta gran red. Fue creada en 1989 por el físico Tim Berners-Lee mientras investigaba en el CERN con un propósito: facilitar el acceso a una colección de documentos vinculados y distribuidos por millones de máquinas en toda internet.

La web fue creada con el propósito de facilitar el acceso a una colección de documentos vinculados y distribuidos por millones de máquinas en toda internet

Cuando los usuarios utilizamos nuestro navegador para recorrer nuestras páginas web favoritas y vamos saltando de una a otra al hacer clic en los hiperenlaces, estamos empleando la web. Sin embargo, es importante que recordemos que este recurso forma parte de internet, pero no equivale a internet. Está contenido en esta gran red y es solo una parte de ella. En esencia utiliza una arquitectura cliente-servidor, de modo que lo que vemos los usuarios es una colección de documentos que pueden incorporar hipervínculos, que no son otra cosa que enlaces que vinculan dos documentos y nos permiten saltar de uno a otro con facilidad.

El otro ingrediente de esta ecuación es el servidor, que, sencillamente, es el programa que se encarga de entregar las páginas solicitadas por los clientes que se conectan a él. El diálogo entre el cliente y el servidor se establece utilizando un lenguaje conocido como protocolo HTTP (HyperText Transfer Protocol), o protocolo de transferencia de hipertexto. Este lenguaje está evolucionando constantemente para hacer posible la implementación de nuevas funcionalidades y mejorar la experiencia de los usuarios, y su última revisión estandarizada es la 5.2. Os hablamos de ella en el artículo que enlazo aquí mismo.

Por qué a veces una parte de internet se va al garete

La visión de internet que pretendemos ofreceros en este artículo es superficial y solo aspira a que los usuarios estemos mínimamente familiarizados con los protocolos y las tecnologías más relevantes que utilizamos casi a diario. Sin embargo, pese a su limitado alcance este reportaje nos permite intuir la complejidad que se esconde bajo una gigantesca red de ordenadores y equipos de comunicaciones que según la consultora Statista en enero de 2021 era utilizada por más de 4600 millones de personas en todo el planeta.

La arquitectura de internet y buena parte de los servicios que nos ofrece han sido diseñados para ser tolerantes a fallos con el propósito de que si algo se rompe los usuarios ni siquiera nos demos cuenta de que algo ha fallado. Uno de los ingredientes utilizados con frecuencia para implementar esta tolerancia a los errores es la redundancia, pero hay muchas otras estrategias que también persiguen mantener en pie los servicios que nos propone internet cuando vienen mal dadas. Sin embargo, pese a todos estos esfuerzos, de vez en cuando algo se rompe. Y los usuarios lo notamos.

Si las personas que utilizamos internet nos damos cuenta de que algo no va bien es porque se ha producido un error grave del que uno o varios servicios no han podido recuperarse de una forma transparente. La raíz del problema puede ser muy diversa, por lo que podemos ilustrar esta situación echando un vistazo a las dos grandes caídas que todos hemos presenciado durante los últimos meses. Una de ellas tuvo lugar a principios del pasado mes de junio, y provocó que Amazon, Twitch, Vimeo y Reddit, entre muchas otras redes sociales y servicios, quedasen fuera de combate durante una larga y tediosa hora.

En aquella ocasión el origen de la caída estuvo en Fastly, un CDN (Content Delivery Network) bastante popular que tiene una cartera de clientes envidiable (de ahí que tantos servicios importantes se viesen afectados). Un CDN es una infraestructura de hardware y software diseñada para acelerar el acceso a un conjunto determinado de servicios web, y para hacerlo posible almacena una parte de los datos que manejan esos servicios en un sistema de caché de alto rendimiento. Os lo explicamos todo con más detalle en el artículo que enlazo aquí mismo.

La otra gran caída en la que podemos fijarnos para ilustrar en qué medida una parte de internet puede quedar fuera de combate tuvo lugar hace solo unos días, y se llevó por delante a Facebook, Instagram y WhatsApp, que, literalmente, desaparecieron de la red. En esta ocasión el origen del problema fue el protocolo BGP (Border Gateway Protocol), o protocolo de pasarela exterior, que, a grandes rasgos, se encarga de optimizar el transporte de los paquetes de datos entre redes diferentes, ayudando a cada una de ellas a informar a las demás de su presencia. Si queréis indagar un poco más podéis echar un vistazo al artículo en el que lo explicamos con más detalle.

Algunas lecturas recomendadas si queréis indagar más en la arquitectura de internet

Afortunadamente, en la web podemos encontrar muchísima literatura que nos permite indagar mucho más en la arquitectura de internet y conocer mejor cómo están implementados sus servicios. Si os apetece profundizar y este artículo os ha dejado con ganas de más os sugerimos que echéis un vistazo a los artículos de Mozilla dedicados a la estructura de internet o al lenguaje HTML; al artículo de la Universidad de Stanford (disponible en inglés) que repasa el funcionamiento de esta gran red; o a la abundante documentación que ha publicado el W3C, que es la organización que promueve la adopción de los estándares utilizados por la World Wide Web.

Las lecturas que os acabamos de proponer son una pequeñísima selección de los casi innumerables recursos que internet pone a nuestro alcance. No obstante, también tenemos otra opción: los libros en papel. El abanico de opciones en este ámbito es muy amplio, pero no puedo resistirme a recomendaros como punto de partida dos de mis libros favoritos: 'Redes de computadoras', de Andrew S. Tanenbaum, y 'Comunicaciones y redes de computadores', de William Stallings. Ambas son publicaciones de carácter académico que lo explican todo con profundidad y un rigor indudable, lo que las ha colocado como dos auténticos clásicos que siguen siendo utilizados pese a su veteranía en muchas escuelas y facultades de informática.

Imagen de portada: Junior Teixeira

Imágenes: Wikimedia | Offnfopt

-
La noticia Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO) fue publicada originalmente en Xataka por Juan Carlos López .



from Xataka https://ift.tt/p231TyW
via IFTTT

Los mayores de 70 años pueden renovar gratis el carné de conducir desde hace años. La cuestión es por qué

Carné de conducir, renovaciones, conductores mayores de 70 años y una revisión gratuita de la licencia. Un cóctel que tiene todos los ingre...