miércoles, 30 de noviembre de 2022

Microsoft publica un parche que promete solucionar los problemas de rendimiento de videojuegos en Windows 11 22H2

Microsoft publica un parche que promete solucionar los problemas de rendimiento de videojuegos en Windows 11 22H2

Microsoft acaba de solucionar los problemas de rendimiento de videojuegos de Windows 11 2022 (22H2). El anuncio es una buena noticia tanto para los usuarios afectados como para todos aquellos usuarios que no pudieron actualizar a la última versión del sistema operativo debido a la “retención de protección” que estableció la compañía.

Empecemos por la solución. Si eres uno de los usuarios que actualizó a Windows 11 2022 (22H2) antes de que Microsoft paralizara el despliegue de la actualización y tienes problemas de rendimiento con juegos o aplicaciones, una actualización opcional a través de Windows Update que promete poner fin a ese dolor de cabeza ya está disponible.

Adiós a los problemas de rendimiento de juegos

La actualización en cuestión es KB5020044. Al tratarse de una actualización opcional tendrán que obtenerla de forma manual. En este caso, solo si eres uno de los afectados por el problema, dirígete a Windows Update y haz clic en Buscar actualizaciones. Si la actualización mencionada está disponible, instálala en tu ordenador.

Cabe señalar que KB5020044 llega también con otras mejoras. Se añaden alertas de superación del límite de alojamiento en OneDrive, facilita la configuración y activación de Contenido destacado de Windows y se corrigen diversos problemas de funcionamiento y de seguridad. Puedes ver el registro completo en la página de soporte de Microsoft.

Windows 11 Major Update 2022

Si la actualización cumple con su cometido, deberías decirles adiós a los mencionados problemas de rendimiento y, además, recibir las otras mejoras que llegan con ella. Si eres uno de los usuarios que todavía no pudo actualizar a Windows 11 2022 debes saber que Microsoft ha limitado la “retención de protección” a ciertos ordenadores.

Esto último quiere decir que muchos de los ordenadores que no podían actualizar a la última versión de Windows 11 debido a este problema ahora sí podrán actualizarse. Al igual que en el paso anterior, simplemente debes ir a Windows Update para descargar la actualización.

Eso sí, Microsoft advierte que el cambio de estado puede tardar hasta 48 horas en impactar en los ordenadores que estaban afectados. Por lo que, si Windows 11 22H2 todavía no aparece en tu ordenador, vuelve a hacer otro intento después de unos días.

Imágenes: Clint Patterson

En Xataka: Portapapeles sincronizado de Windows 11: qué es y cómo activar este portapapeles en la nube

-
La noticia Microsoft publica un parche que promete solucionar los problemas de rendimiento de videojuegos en Windows 11 22H2 fue publicada originalmente en Xataka por Javier Marquez .



via Xataka https://ift.tt/ld4zDZL

Responde a nuestra pregunta en Twitch, participa en el sorteo y llévate un Honor X8 gratis

Responde a nuestra pregunta en Twitch, participa en el sorteo y llévate un Honor X8 gratis

Habemus nuevos sorteo en nuestro canal de Twitch, ElStream. Hoy, 30 de noviembre, a partir de las 16:00, un afortunado podrá llevarse a casa totalmente gratis un Honor X8. ¿Cómo conseguirlo? Fácil: siendo el primero en responder correctamente a una pregunta que lanzaremos durante el directo. A continuación repasaremos la mecánica para quede totalmente clara.

Pero antes, una aclaración: para participar en el sorteo hay que responder correctamente a la pregunta en el chat de Twitch y no en los comentarios de este artículo, que es estrictamente informativo.

Cómo ganar un Honor X8 con ElStream

Seguir el programa de hoy en Twitch tiene premio: el Honor X8, un smartphone de gama media bastante completo. Para participar en el sorteo, solo tendrás que ver el streaming y estar atento, porque en algún momento lanzaremos una pregunta. El primero que la responda correctamente se llevará el premio. Los pasos son los siguientes:

  • Sigue a El Stream en Twitch.
  • Durante la retransmisión de hoy a partir de las 16:00, lanzaremos una pregunta para el sorteo.
  • Tendrás que responder a la pregunta en los comentarios de Twitch, en los de nuestra emisión en directo.
  • La primera persona en responder correctamente, se llevará el premio.

Se elegirán un ganador y dos suplentes. Si el primero no cumple los requisitos se pasará al primer suplente y, si no, al segundo. El ganador se elegirá durante el directo y tendrá que enviar un susurro a ElStream en el chat de Twitch para que procedamos a verificar su información. También tendrá que ser mayor de 18 años, residente en España y seguidor de ElStream en Twitch. Las bases legales del sorteo las puedes encontrar en este enlace.

Honor X8

El Honor X8 cuenta con una pantalla LCD de 6,7 pulgadas con resolución FullHD+ y una frecuencia de 90 Hz. Dentro encontrarás un procesador Snapdragon 680 con 6 GB de memoria RAM y 128 GB de almacenamiento interno. Es una gama media realmente solvente y capaz de cumplir en todas las tareas del día a día.

El terminal incorpora una batería de 4.000 mAh y carga rápida de 22,5W, así como una cámara principal de 64 megapíxeles, un gran angular, un macro y un sensor de profundidad. Los selfies, por su parte, quedan en manos de una cámara de 16 megapíxeles.

HONOR X8 Smartphone de 6+128 GB con Cámara Cuádruple de 64 MP, Teléfono Móvil Fino de 7.45mm con Pantalla de 6,7" + 90Hz, Snapdragon 680, Carga Rápida y Gran Batería, Versión ES

HONOR X8 Smartphone de 6+128 GB con Cámara Cuádruple de 64 MP, Teléfono Móvil Fino de 7.45mm con Pantalla de 6,7" + 90Hz, Snapdragon 680, Carga Rápida y Gran Batería, Versión ES

Este contenido es una colaboración y patrocinio entre Xataka y la marca, pero no hay pacto sobre el guión ni la selección de los temas. El contenido editorial está elaborado íntegramente por Xataka.

-
La noticia Responde a nuestra pregunta en Twitch, participa en el sorteo y llévate un Honor X8 gratis fue publicada originalmente en Xataka por Jose García .



via Xataka https://ift.tt/UN483IW

OnePlus afirma que algunos dispositivos lanzados en 2023 recibirán cuatro años de actualizaciones de Android

OnePlus afirma que algunos dispositivos lanzados en 2023 recibirán cuatro años de actualizaciones de Android

Las actualizaciones siempre han sido un asunto peliagudo en el mundillo de Android. Hay muchísimos lanzamientos, versiones de Android nuevas cada año y mantener todos los terminales actualizados no es sencillo. Sin embargo, en los últimos años los fabricantes se han puesto las pilas (en mayor o menor medida) y han anunciado diversos compromisos de actualizaciones. Ahora es OnePlus la que, afirma, llevará ese compromiso un poquito más allá.

El año pasado, OnePlus anunció que ofrecería tres años de actualizaciones Android y cuatro años de parches de seguridad. Ahora, en el OxygenOS Open Ears Forum en Londres, la empresa ha asegurado que ofrecerá a "algunos dispositivos seleccionados lanzados en 2023" cuatro años de actualizaciones Android y cinco años de parches de seguridad, igualando así la propuesta de Samsung.

De Android 13 a Android 17 y tiro porque me toca

OnePlus

Con este nuevo compromiso, cabe esperar que algunos dispositivos OnePlus de 2023, que se lanzarán con Android 13 (o deberían), reciban hasta Android 17. Además, tendrán un año adicional de parches de seguridad. Según ha expresado Gary Chen, Jefe de Productos de Software en OnePlus, y recogen en 9to5Google y Android Autorithy:

"Como empresa orientada al usuario, hacemos todo lo posible para mejorar la experiencia del usuario. Dado que cada vez hay más usuarios que conservan sus dispositivos durante más tiempo, queremos asegurarnos de poder ofrecer esa posibilidad. Esta nueva política de actualizaciones dará a los usuarios acceso a las últimas características funcionales y de seguridad necesarias para impulsar la experiencia rápida y fluida característica de OnePlus durante toda la vida útil del teléfono."

Hasta aquí todo bien. El problema es que OnePlus no ha especificado en qué terminales se aplicará esta política. Lo único que sabemos es que se aplicará a "dispositivos seleccionados lanzados en 2023 y más allá", lo que abre la puerta a que sean solo los dispositivos de gama alta. Recordemos que ahora OnePlus tiene una gama más amplia de móviles, como los Nord de gama media. Habrá que esperar a que OnePlus se pronuncie para salir de dudas.

En ese sentido, y en lo que concierne a Europa, en septiembre de este mismo años supimos que la Unión Europea estaba estudiando exigir a los fabricantes ofrecer al menos tres años de actualizaciones mayores y cinco años de parches de seguridad. No solo eso, sino que los fabricantes deberían lanzar la actualización en dos meses como mucho y no reducir el rendimiento de los dispositivos tras la actualización.

-
La noticia OnePlus afirma que algunos dispositivos lanzados en 2023 recibirán cuatro años de actualizaciones de Android fue publicada originalmente en Xataka por Jose García .



via Xataka https://ift.tt/06JQM7b

El método más rápido para calentar el interior del coche ahora que llegan el frío y las heladas

El método más rápido para calentar el interior del coche ahora que llegan el frío y las heladas

Llega el frío, las temperaturas bajo cero, las heladas y las imágenes de conductores con el abrigo puesto y guantes en las manos para recorrer los primeros kilómetros del día. Una constante que se repite cada año pero que podemos paliar (o evitar) con algunos sencillos trucos.

Igual que no hay nada como tener que conducir con los mandos del coche ardiendo, con el volante quemando y sentir la palanca de cambios como si fuera un hierro ardiendo, tampoco es cómodo tener que manejar un coche tiritando y con las manos heladas por el frío. Poner a tono el habitáculo lo antes posible es indispensable en estos días de frío.

Calentando el interior del coche lo antes posible

En invierno y en verano, tener una plaza de garaje es un lujo que no todo el mundo se puede permitir, por ello, muchos conductores tienen que lidiar cada mañana con el hielo y la nieve que dejan el interior de los coches helados (además del parabrisas, evidentemente).

Por lo tanto, lo primero que debemos hacer es quitar el hielo de las lunas y la carrocería, para poder circular con seguridad. Aunque no es recomendable dejar parado el coche durante varios minutos con el motor encendido, puede ser útil ponerlo en funcionamiento unos 30 segundos antes de iniciar la marcha.

Cuando los coches tenían carburador, era habitual tener que dejar el coche encendido unos minutos antes pero con en los vehículos modernos esto no es necesario. Sí hay que tener en cuenta que algunos aceites pueden estar más densos de lo esperado y, por tanto, es interesante calentar el coche mínimamente antes de emprender la marcha.

Además, esto ayudará a que el motor vaya cogiendo temperatura y que la calefacción trabaje cuanto antes para el coche. Ésta empieza a enviar aire caliente cuando el propulsor ha cogido temperatura y, hasta entonces, los ventiladores sólo estarán removiendo el aire frío del interior, lo cual es completamente contraproducente si queremos calentar el interior cuanto antes.

Para que la calefacción actúe, es necesario que el líquido refrigerante del motor pase por un intercambiador de calor que actúa sobre el aire frío del exterior y haciéndolo pasar al interior ya caliente.

Por lo tanto, es mejor esperar un poco para encender la calefacción. Y cuando ya esté en funcionamiento, lo mejor es enviar el aire caliente a los pies y apuntar al cristal (también encender la luneta térmica). Evitaremos que los cristales se empañen y, como el aire caliente tiende a subir, calentaremos más rápidamente el habitáculo.

Tampoco debemos pasarnos con la temperatura ni con la ropa de abrigo. El calor produce somnolencia, lo que puede ser un verdadero problema a primera hora de la mañana o después de comer. En cualquier caso, tanto en invierno como en verano, la temperatura ideal para el habitáculo del coche está entre los 19 y los 21 grados.

De igual modo, evita conducir con el abrigo puesto o con guantes que limiten nuestros movimientos. No sólo es motivo de multa si complica nuestros gestos al volante, además, en pocos minutos tendremos el habitáculo ya caliente y empezaremos a pasar calor, lo que reducirá nuestra atención sobre la carretera.

Foto | iStock

-
La noticia El método más rápido para calentar el interior del coche ahora que llegan el frío y las heladas fue publicada originalmente en Xataka por Alberto de la Torre .



via Xataka https://ift.tt/e2NjwLR

La antimateria tiene un gran secreto, y así es como los científicos del CERN están intentando desentrañarlo

La antimateria tiene un gran secreto, y así es como los científicos del CERN están intentando desentrañarlo

Una de las razones por las que la antimateria resulta tan interesante no solo para los físicos de partículas, sino también para las personas a las que nos apasiona la ciencia, es que las herramientas que tenemos aún no nos permiten entender qué papel jugó en el origen del universo. No obstante, el enigma no acaba aquí; tampoco sabemos qué leyes gobiernan la tenue línea que delimita el desequilibrio entre materia y antimateria en el que indagaremos en la última sección de este artículo.

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar brevemente qué es la antimateria y qué la hace tan peculiar. En realidad no es más que una forma de materia constituida por antipartículas, que son partículas con la misma masa y espín que las partículas con las que estamos familiarizados, pero con carga eléctrica opuesta. De esta forma la antipartícula del electrón es el positrón o antielectrón. Y la antipartícula del protón es el antiprotón.

La antimateria tiene una propiedad sorprendente: cuando entra en contacto directo con la materia ambas se aniquilan, liberando una gran cantidad de energía bajo la forma de fotones de alta energía, así como otros posibles pares partícula-antipartícula. Actualmente está siendo estudiada en buena parte de los centros de investigación especializados en física de partículas más importantes del mundo con la esperanza de que conocerla mejor nos ayude a entender algunos de los misterios del cosmos que permanecen fuera de nuestro alcance.

El CERN tiene herramientas para crear y manipular antimateria

Su naturaleza exótica no ha impedido a los científicos encontrar la forma de obtenerla en el laboratorio con el propósito de estudiarla y conocer sus características más a fondo. El CERN, que actualmente es el laboratorio de física de partículas más avanzado del planeta, tiene varios experimentos diseñados expresamente para indagar en los secretos más recónditos de la antimateria recurriendo a interacciones muy energéticas entre las partículas.

Dos de los que ya nos han ofrecido algunos resultados alentadores, y que aún resultan muy prometedores, son ALPHA-g y GBAR. A grandes rasgos en el primero los científicos provocan el choque de dos haces de partículas con un elevado nivel de energía para obtener un átomo de antihidrógeno constituido por un antiprotón y un positrón, de la misma manera en que el protio, que es el isótopo del hidrógeno más abundante en la naturaleza, está constituido por un protón y un electrón.

Uno de los grandes desafíos que conlleva manipular la antimateria es que, como hemos visto, cuando entra en contacto con la materia ambas se aniquilan mutuamente y liberan mucha energía. Esta es la razón por la que los investigadores se han visto obligados a idear estrategias para mantener completamente aislada la antimateria que obtienen en el laboratorio durante el máximo tiempo posible. La estratagema más eficaz consiste en confinarla en una cámara de vacío para evitar que entre en contacto con la materia, y, afortunadamente, ya han conseguido mantenerla en este estado durante varios minutos.

Los experimentos ALPHA-g y GBAR del CERN persiguen entender mejor la interacción entre la antimateria y la gravedad

ALPHA-g (Antihydrogen Laser Physics Apparatus-gravity) estudia algo tan interesante como es la interacción que se produce entre la antimateria y la gravedad debido a que no está claro que tenga las mismas características que definen la interacción entre la gravedad y la materia ordinaria. Por otra parte, GBAR (Gravitational Behaviour of Antimatter at Rest) produce antiiones, los enfría hasta que alcanzan una temperatura cercana al cero absoluto, que es -273,15 ºC, y, después, les roba un positrón para transformarlos en un antiátomo no iónico.

El propósito de estos dos experimentos es estudiar tan a fondo como sea posible la interacción de la antimateria y la gravedad, de manera que los científicos creen que abordar este cometido utilizando dos perspectivas diferentes puede ayudarles a entender mejor esta fuerza fundamental, y, quizá, a elaborar una teoría cuántica de la gravedad.

No obstante, los esfuerzos del CERN no terminan aquí. A finales del año pasado los investigadores del experimento BASE (Baryon Antibaryon Symmetry Experiment) idearon un sorprendente dispositivo diseñado para transportar antipartículas. Suena complejo, y también parece peligroso, pero es una idea muy interesante porque permitiría llevar la antimateria obtenida en el CERN a otras instalaciones en las que podría ser estudiada.

Esta iniciativa aún está en desarrollo, pero, si todo sale como han previsto los científicos, facilitará la colaboración entre distintas instituciones que tienen un propósito común: entender mejor las propiedades de la antimateria. Os hablamos con más profundidad de este peculiar «maletín» para antimateria en el artículo que enlazo aquí mismo.

Experimentobasecern
En esta fotografía podemos ver en acción a uno de los técnicos del CERN involucrados en la puesta a punto de los sofisticados equipos utilizados en el experimento BASE (Baryon Antibaryon Symmetry Experiment).

El gran enigma al que se enfrentan los científicos: la asimetría materia-antimateria

Y, por fin, llegamos al gran misterio en el que está involucrada la antimateria, un enigma del que posiblemente muchas de las personas que estáis leyendo este artículo habéis oído hablar: la asimetría entre la materia y la antimateria.

El modelo de la gran explosión con el que trabajan los astrofísicos predice esta asimetría, que no es otra cosa que una divergencia, posiblemente pequeña si nos ceñimos a la escala cosmológica, en las cantidades iniciales de antimateria y materia. Presumiblemente esta última debía de ser más abundante porque, de lo contrario, lo que nos dice lo que sabemos es que no existiríamos debido a que la materia habría sido aniquilada al entrar en contacto con la antimateria primordial generada durante el Big Bang.

El gran desafío al que se enfrentan los físicos es que el modelo estándar no ha conseguido explicar esta asimetría, que, por otro lado, ha sido comprobada parcialmente en el laboratorio mediante la identificación de la violación de la simetría CP (si queréis conocer mejor estos experimentos os sugiero echar un vistazo a este veterano pero aún valioso artículo de Francisco R. Villatoro).

Afortunadamente, el esfuerzo que están realizando los físicos durante los últimos años está dando sus frutos bajo la forma de hipótesis que, cuando menos, son prometedoras. Una de las más interesantes se apoya en el descubrimiento de un mesón que tiene la peculiar habilidad de cambiar de estado de forma espontánea, alterando su estructura entre materia y antimateria.

La oscilación de los mesones 'charm' puede ser la clave para explicar la asimetría materia-antimateria del universo que ha hecho posible nuestra existencia

Los mesones son partículas subatómicas pertenecientes a la familia de los hadrones que están compuestas por el mismo número de quarks y antiquarks, que se mantienen unidos gracias a la mediación de la fuerza nuclear fuerte. El cambio de estado que los científicos del experimento LHCb han observado en los mesones charm (encanto) puede ser la clave para entender el mecanismo que explica la asimetría materia-antimateria del universo. Os lo explicamos todo con más detalle en el artículo que enlazo aquí mismo, por si os apetece indagar un poco más.

No cabe duda de que estamos viviendo un momento apasionante para todas las personas a las que nos interesan la física de partículas y la cosmología. Podemos estar seguros de que durante los próximos años llegarán más descubrimientos sorprendentes que nos permitirán conocer un poco mejor no solo nuestro origen, sino también qué lugar ocupamos en el universo.

Imágenes: CERN

-
La noticia La antimateria tiene un gran secreto, y así es como los científicos del CERN están intentando desentrañarlo fue publicada originalmente en Xataka por Juan Carlos López .



via Xataka https://ift.tt/Smcdbwk

Cinco mejores ofertas en portátiles gaming baratos que puedes comprar en la CyberWeek de PcComponentes

Cinco mejores ofertas en portátiles gaming baratos que puedes comprar en la CyberWeek de PcComponentes

PcComponentes ha alargado el Cyber Monday toda esta semana, lo que te da más tiempo para comprar tus regalos de Navidad al mejor precio (aquí tienes una selección para gamers por menos de 50 euros) o para cambiar de ordenador aprovechando sus chollos. Si buscas un portátil gaming barato, estás de suerte porque vas a encontrar descuentazos de hasta el 70%, o lo que es lo mismo, varios cientos de euros menos. Aquí tienes sus mejores ofertas.

Asus Tuf Gaming F15 Fx506lhb Hn324
  • Uno de los portátiles gaming baratos más interesantes es este ASUS TUF Gaming F15 FX506LHB-HN324, a 649 euros y también en Worten, 35% de descuento para un equipo todoterreno ideal para uso general intensivo y para gaming esporádico. Con un procesador Intel Core i5-10300H acompañado por 16GB de memoria RAM, con SSD de 512GB y tarjeta gráfica dedicada GTX 1650. Con pantalla de 15.6" FHD y sin sistema operativo.
ASUS TUF Gaming F15 FX506LHB#B09TRDT8DC - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-10300H, 16GB RAM, 512GB SSD, GTX 1650 4GB, Sin Sistema Operativo) Negro Hoguera - QWERTY español

ASUS TUF Gaming F15 FX506LHB#B09TRDT8DC - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-10300H, 16GB RAM, 512GB SSD, GTX 1650 4GB, Sin Sistema Operativo) Negro Hoguera - QWERTY español

Asus Tuf Gaming F15 Fx506he
  • Con un 37% de descuento está el ASUS TUF Gaming F15 FX506HE-HN012, es decir, 749 euros. La principal diferencia con el anterior está en la gráfica, en este caso un modelo más moderno y con ray tracing como el RTX 3050Ti. Cuenta además con procesador Intel Core i5-11400H, 16GB de memoria RAM, SSD de 512GB y pantalla de 15.6" FHD a 144 Hz. Sin SO.
ASUS TUF Gaming F15 FX506HE-HN012 - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-11400H, 16GB RAM, 512GB SSD, GeForce RTX 3050 Ti 4GB, Sin Sistema Operativo) Negro Grafite - Teclado QWERTY español

ASUS TUF Gaming F15 FX506HE-HN012 - Portátil Gaming de 15.6" Full HD 144Hz (Core i5-11400H, 16GB RAM, 512GB SSD, GeForce RTX 3050 Ti 4GB, Sin Sistema Operativo) Negro Grafite - Teclado QWERTY español

Msi Gf63 Thin 11uc 447xes
  • Si quieres un portátil gaming precisamente porque vas usarlo en movilidad, entonces seguro que aprecias virtudes de este MSI GF63 Thin 11UC-447XES como sus 21,7 mm de grosor y 1,86 kg de peso, bastante más estilizado que la vasta mayoría de equipos gaming. Con un descuento del 28% que lo deja en 749 euros, este equipo dispone de procesador Intel Core i5-11400H, 16GB de memoria RAM, SSD de 512GB y una GPU con ray tracing como la RTX 3050, que ofrece una buena experiencia ajustando opciones gráficas. Con pantalla de 15.6" FHD a 144Hz y sin SO.
MSI GF63 Thin 11UC-447XES Intel Core i5-11400H/16GB/512GB SSD/RTX 3050/15.6"

MSI GF63 Thin 11UC-447XES Intel Core i5-11400H/16GB/512GB SSD/RTX 3050/15.6"

Gigabyte G5 Kd 52es123sd
  • Si tu idea es jugar con cierta intensidad y exigencia, entonces este Gigabyte G5 KD-52ES123SD a 849 euros es uno de los mejores candidatos dentro de los portátiles gaming baratos gracias a su GPU, la mainstream RTX 3060. Le acompañan un procesador Intel Core i5-11400H, 16GB de memoria RAM, un SSD de 512GB, panel de 15.6" FHD. Sin SO.
PORTATIL GIGABYTE G5 KD-52ES123SD i5-11400H 3060P 16GB 512GB 15,6" Dos

PORTATIL GIGABYTE G5 KD-52ES123SD i5-11400H 3060P 16GB 512GB 15,6" Dos

Acer Nitro 5 An515 58 7365
  • Si miras al futuro y prefieres gastar algo más y contar con hardware de última generación, ojo a este Acer Nitro 5 AN515-58-7365 que baja 450 euros hasta los 859 euros. En este caso con un moderno y potente procesador Intel Core i7-12700H, con 16GB de memoria RAM, SSD de 512GB y una RTX 3050Ti. Y si prefieres que la GPU sea una RTX 3060, ahórrate 500 euros en el Acer Nitro 5 AN515-58-7571, a 999 euros. En ambos casos con panel 15,6 FHD (aunque el primero a 144 Hz y el segundo a 165Hz) y sin SO.
Acer Nitro 5 AN515-58-7365 Intel Core i7-12700H/16GB/512GB SSD/RTX 3050Ti/15.6"

Acer Nitro 5 AN515-58-7365 Intel Core i7-12700H/16GB/512GB SSD/RTX 3050Ti/15.6"

Más ofertas

Si te haces de Amazon Prime, dispones de 30 días de prueba gratis (después 49,90 euros al año) para disfrutar de envíos rápidos gratis, accesorio prioritario a ofertas, servicios como Prime Video, Prime Music y almacenamiento de fotos ilimitado. Además, si eres estudiante, hacerte de Prime Student cuesta la mitad y dispones de 90 días de prueba. También puedes probar gratis durante 30 días servicios como Kindle Unlimited o Audible.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

En Xataka Selección publicamos las mejores ofertas en tecnología, informática y electrónica de los principales comercios de internet. Los precios y disponibilidad pueden variar tras la publicación.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka

-
La noticia Cinco mejores ofertas en portátiles gaming baratos que puedes comprar en la CyberWeek de PcComponentes fue publicada originalmente en Xataka por Eva Rodríguez de Luis .



via Xataka https://ift.tt/AxDvYk1

martes, 29 de noviembre de 2022

El nuevo tráiler de ’Super Mario Bros.’ nos lleva de paseo por un impresionante mundo de fantasía con Luigi y la Princesa Peach

El nuevo tráiler de ’Super Mario Bros.’ nos lleva de paseo por un impresionante mundo de fantasía con Luigi y la Princesa Peach

Super Mario Bros. La película acaba de estrenar su segundo tráiler. El avance publicado hoy, que llega casi dos meses después del primero, nos da una nueva oportunidad para sumergirnos en universo del plomero más conocido del mundo.

Una vez más vemos que la asociación de Nintendo con Illumination está dando buenos frutos. En estas nuevas imágenes se confirma el valioso esfuerzo por hacer que los personajes y los escenarios de los videojuegos mantengan coherencia con la película.

Mario, Luigi y la Princesa Peach

Si el tráiler anterior se había centrado en el villano Bowser, este se centra en los personajes más amigables de la franquicia en muchos de los juegos que conocemos. Mario protagoniza un combate épico contra Donkey Kong (aunque no sale bien parado).

Después vemos a Luigi en una escena de Smash Bros y a la Princesa Peach dando un discurso a los habitantes del Reino Champiñón y preparándolos para la inminente llegada de Bowser. Mario Vuelve a hacer de las suyas y acaba en una carrera del juego Mario Kart.

Los colores y el impecable diseño en 3D de todo lo que vemos en la pantalla vuelve a llevarse parte del protagonismo y, posiblemente, ayuda a conquistar visualmente a los fanáticos de la franquicia que están esperando para ver la película en cines.

Precisamente, en relación al estreno, Super Mario Bros. La Película llegará a los cines españoles el 31 de marzo. A Estados Unidos llegará más tarde, el 7 de abril, pero antes a países como Suecia, cuyo estreno está programado para el 24 de abril.

Imágenes: Illumination

En Xataka: 'Mundo extraño' es otro fracaso espectacular de Disney en taquilla: malos tiempos para su animación

-
La noticia El nuevo tráiler de ’Super Mario Bros.’ nos lleva de paseo por un impresionante mundo de fantasía con Luigi y la Princesa Peach fue publicada originalmente en Xataka por Javier Marquez .



via Xataka https://ift.tt/cYoyiFn

Promocionar un Pixel sin haberlo probado sale caro: multa millonaria a Google por publicidad engañosa

Promocionar un Pixel sin haberlo probado sale caro: multa millonaria a Google por publicidad engañosa

Pagar a la radio para hablar de las bondades de un teléfono aunque el interlocutor no lo hubiese probado parecía una buena idea. Hasta que la Comisión Federal de Comercio de los Estados Unidos (FTC) te demanda por publicidad engañosa. Google se enfrenta a una multa de 9,4 millones de dólares por haber pagado a "personalidades de la radio" que no habían probado el teléfono.

Anunciar que has probado un producto sin haberlo probado no sale bien

La FTC y algunos de los fiscales generales del estado han presentado una demanda contra Google. Se les reclama una cuantía de 9,4 millones de dólares en multas por haber pagado a personas influyentes para promocionar productos que nunca usaron. Según el director de la Oficina de Protección al Consumidor, esto supone "una flagrante falta de respeto por las reglas de veracidad en la publicidad”.

Hablar en primera persona de un producto sin haberlo recibido supone publicidad engañosa, según la FTC

Según la FTC, en 2019, con el lanzamiento del Google Pixel 4, Google contrató a iHeartMedia (una gran cadena de radio en EEUU) y a otras 11 cadenas de radio, promocionando guiones en los que los anunciantes debían hablar en primera persona y haciendo ver que habían probado el teléfono. "Es mi cámara de teléfono favorita, he hecho fotos con él excelentes" y demás líneas, han sido el detonante de esta actuación por parte de la Comisión.

El principal problema es que ninguna de las personalidades había, siquiera, recibido el teléfono en el momento de realizar estos anuncios, por lo que ni poseían el teléfono ni habían podido usarlo. La demanda indica así que estas tergiversaciones por parte de los anunciantes violan las leyes de la FTC.

Google está ahora en plazo para alegar. En caso de no resolverse el caso a su favor, tendrá que pagar 9,4 millones de dólares en multas, una por cada uno de los 29.000 anuncios "engañosos" que promocionaban el Pixel 4.

Más información | FTC

-
La noticia Promocionar un Pixel sin haberlo probado sale caro: multa millonaria a Google por publicidad engañosa fue publicada originalmente en Xataka por Ricardo Aguilar .



via Xataka https://ift.tt/kv8rNlc

Meta se está quedando sin tiempo

Meta se está quedando sin tiempo

En una empresa hay errores que se diluyen en poco tiempo, por ejemplo, dar una mala contestación a un cliente importante y que tres comerciales tengan que invitarle a una cena para pedir perdón, asegurar que no volverá a ocurrir y ofrecer un descuento a cambio de que no cambie de proveedor.

Luego hay errores de los que cuestan dinero. Por ejemplo, sobredimensionar un departamento y luego estar años haciendo el puzzle de las recolocaciones. Y luego están los errores que cambian el destino de compañías enteras. Es probable que Zuckerberg haya cometido uno de estos en Meta.

Urgencias a largo plazo

Meta creció exponencialmente durante toda la década pasada gracias a Facebook, se hizo acertadamente con Instagram como el vehículo que continuaría con ese crecimiento durante la transición del escritorio al móvil, y puso el colofón con un crecimiento explosivo tras la pandemia.

Como tantas otras tecnológicas, le debió resultar difícil imaginar entonces, otoño de 2021, lo oscuro que se pondría todo poco después. En aquel último trimestre del año superó las expectativas de ingresos, reventando el contador muy por encima de los 30.000 millones de dólares en solo noventa días, una cantidad a la que nunca habían llegado antes y que todavía no han vuelto a alcanzar.

Los ingresos no es que se hayan hundido durante 2022, pero ya no experimentan el crecimiento de antaño. El problema, en cualquier caso, está en el flujo de caja libre de Meta.

Veamos algunos titulares de medios financieros en los últimos meses de 2021:

No se trata de ser ventajista, sino de señalar el buen clima que rodeaba a Meta hace un año. Especialmente los primeros trimestres de 2021 fueron colosales en cuanto a generación de flujo de caja libre y le permitieron acabar el año con casi 13.000 millones de dólares. Hoy esa cantidad es de 0 dólares.

En los últimos tiempos Meta ha disparado sus costes mientras sus ingresos se han reducido. Esta situación tiene varios culpables:

  • iOS 14.6. La versión del sistema operativo del iPhone que fue lanzada a finales de 2020 e incluía la medida de transparencia de rastreo, que permitía al usuario solicitar a sus aplicaciones no ser rastreado. Esta medida cercenó la capacidad de Meta para segmentar su publicidad, haciéndola menos efectiva, y por tanto, más barata.
  • TikTok. La aplicación que puso a bailar al mundo es una incómoda piedra en el zapato de Meta. Y cada vez más grande. Al contrario que con Snapchat, la réplica de Instagram incluyendo su función no ha podido destronarla. Y esta le va comiendo terreno.
  • El metaverso. Zuckerberg se puso como objetivo liderar la siguiente gran ola tras el smartphone y en desarrollar esa plataforma se terminó fundiendo ese flujo de caja libre. Una apuesta tan enorme como arriesgada: más de una quinta parte de su facturación anual se fue en I+D, y la mayoría de esa cantidad fue al metaverso.

¿Cuál es el problema entonces? El tiempo. Nada hace pensar que Apple vaya a dar marcha atrás en su política de transparencia y consentimiento para el rastreo (otro día hablamos de que no es únicamente un gesto hacia el usuario, sino un incentivo para que la monetización llegue vía compras in-app y suscripciones, donde cobran una comisión). Tampoco hay indicios de que TikTok vaya a bajar la persiana.

¿Y el metaverso? Pues eso. El tiempo. El tiempo para desarrollarlo de forma eficaz para lograr un producto convincente (lo logrado hasta ahora es bastante poco atractivo). El tiempo para captar a desarrolladores que hagan de él un escenario social y entretenido como para que empiece a ser considerado un lugar al que acudir. El tiempo para que los cascos de realidad virtual se hagan algo más asequibles. Y sobre todo, el tiempo para que los usuarios encuentren la motivación para hacerse con uno.

Demasiado tiempo cuando el flujo libre de caja se ha esfumado y las estimaciones que dio la empresa en su última presentación trimestral de resultados hablaban de unos gastos anuales consolidados de unos 100.000 millones de dólares (entre un 8% y un 15% por encima de lo esperado). Demasiado tiempo cuando en un momento en el que harían falta más ingenieros, diseñadores y comerciales que nunca ha habido que acometer despidos.

Demasiado tiempo cuando hay un cambio de paradigma de por medio. El iPhone inauguró la era del smartphone moderno pero esta figura no empezó a hacerse masiva hasta que pasaron cinco años desde aquel modelo. ¿Cuánto puede llevar algo que ni siquiera tiene un predecesor claro y que implica un cambio en la forma de interactuar?

Meta se acostumbró a un estilo de vida en el que podía reinvertir cuanto quisiera de sus ganancias porque las del ejercicio posterior serían no menos de un 30% superiores. Ahora esos fundamentos se tambalean, ha habido que recurrir a los despidos y queda esperar a que los Reels combatan lo suficientemente bien a TikTok, y que los cascos Oculus, muy superiores al precio promedio que necesitó el smartphone para popularizarse, puedan dar frutos más pronto que tarde.

Meta también tenía en marcha un proyecto de reloj inteligente orientado a ser la primera pata de su sistema de interfaces neuronales, pero ya fue cancelado. No era una forma de asegurar ingresos a corto plazo, sino todo lo contrario. El metaverso tampoco asegura facturación rápida, pero Meta ya ha invertido demasiado en él como para recular sin más. Sería mucho mejor si pudiesen acelerarse los plazos, pero no. Meta necesita que el reloj avance mucho más rápido. Pero 2023 tampoco tiene por qué ser mucho mejor.

-
La noticia Meta se está quedando sin tiempo fue publicada originalmente en Xataka por Javier Lacort .



via Xataka https://ift.tt/0JtQSzO

Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

Internet es un misterio. Uno enorme. O, al menos, lo parece. Muchas personas utilizamos esta red todos los días, y, además, lo hacemos durante muchas horas sin ser realmente conscientes de la complejidad que la hace posible. De todo lo que hay debajo. Hasta que algo falla y nos vemos obligados temporalmente a dejar de utilizar algunos de sus servicios, algo que ha sucedido durante los últimos meses con Amazon, Facebook, Instagram, Twitch, WhatsApp o Reddit, entre muchas otras plataformas.

Precisamente, la razón por la que de cuando en cuando algo se rompe en internet, algo con la suficiente entidad para que los usuarios nos demos cuenta, es que todos sus engranajes deben funcionar con la precisión del mecanismo de un reloj mecánico. Y el problema es que esta red es tan grande, involucra tanta tecnología, tantos equipos de red, tantas personas y tantos intereses que, inevitablemente, de vez en cuando algo falla. Y el origen del error puede ser humano o estrictamente técnico.

Todos sabemos que, en realidad, en internet no hay magia, pero sí mucha tecnología. Y en este artículo os proponemos indagar en ella con el propósito de que nos resulte más familiar y menos misteriosa. En un reportaje con una extensión limitada y una ambición didáctica como este no se puede recoger toda la complejidad de la innovación que hace posible que esta gigantesca red exista y funcione, por lo que inevitablemente tendremos que ceñirnos a algunas de sus tecnologías fundamentales.

Nuestra intención es que los lectores que estáis menos familiarizados con todo esto os sintáis un poco más cómodos cuando leáis u oigáis hablar acerca de protocolos, direcciones IP o algoritmos de control, entre otros elementos. Aun así, este artículo solo pretende ofreceros una mirada asequible y superficial de internet, por lo que en la última sección os propondremos algunas lecturas que os pueden ayudar a profundizar e ir mucho más allá si os apetece conocer con más detalle cómo funciona esta enorme y compleja red.

Todo tiene un nombre en internet: las direcciones IP

Todos los dispositivos que tienen la capacidad de conectarse a internet, bien sea a través de nuestra fibra óptica doméstica, bien utilizando una conexión 4G o 5G como las de nuestros teléfonos móviles, deben ser capaces de identificarse con un nombre único que no esté siendo utilizado por ningún otro dispositivo. De lo contrario, si dos o más equipos tuviesen el mismo nombre se produciría una incongruencia debido a que no sabríamos a cuál debemos entregar un paquete de datos determinado. Ese nombre único es, precisamente, la dirección IP.

IPv4 tiene algunas limitaciones importantes debido a que es la primera infraestructura de direccionamiento implementada en internet

Su función es esencialmente la misma de las direcciones postales que nos permiten recibir paquetes en nuestra casa, y que nos identifican con precisión para evitar que vayan a parar a un destino erróneo. Sin embargo, hay una diferencia importante entre las direcciones IP y las direcciones postales: las primeras pueden variar, y las segundas no (o no suelen hacerlo a menos que se cambie el nombre de la calle en la que residen). Las direcciones IP que no cambian se conocen como fijas, y las que varían son dinámicas precisamente debido a la posibilidad de que cambien en un plazo de tiempo determinado.

La mayor parte de los proveedores de acceso a internet nos proporciona una dirección IP dinámica, y, además, los dispositivos que tenemos en casa, y que se conectan a la red a través de nuestra conexión ADSL o de fibra óptica, también suelen tener una dirección IP dinámica. Sin embargo, estos dispositivos no tienen la capacidad de elegir qué dirección IP quieren tener; el responsable de asignársela es un equipo que forma parte de la red y que utiliza un protocolo conocido como DHCP (Dynamic Host Configuration Protocol) para decidir cuál debe entregar a cada dispositivo.

Ya tenemos una idea relativamente certera acerca de qué es una dirección IP, por lo que ahora nos interesa echar un vistazo a su aspecto. El protocolo que se responsabiliza de describir qué formato tienen y cuál es su significado se conoce como IPv4 (Internet Protocol version 4), pero tiene algunas limitaciones importantes debido a que es la primera infraestructura de direccionamiento implementada en internet, y esta red ha crecido una barbaridad durante las últimas dos décadas.

De hecho, ha crecido tanto, y crecerá aún mucho más en el futuro, que ha sido necesario diseñar una infraestructura de direccionamiento más avanzada que sea capaz de acoger la enorme cantidad de dispositivos que se conectarán a ella durante los próximos años. Esta nueva arquitectura se llama IPv6 (Internet Protocol version 6), y propone direcciones con un tamaño de 128 bits, por lo que son cuatro veces mayores que las direcciones de 32 bits de IPv4 precisamente con el objetivo de poner a nuestro alcance un mapa de direcciones IP mucho mayor que sea capaz de resolver nuestras necesidades a medio y largo plazo.

En el artículo que enlazo aquí mismo explicamos con bastante detalle cómo son las direcciones del protocolo IPv6 y en qué se diferencian de las IPv4, pero aquí van algunas pinceladas sobre ambas. No obstante, antes de que sigamos adelante nos interesa saber que las direcciones IP están incluidas en los campos de dirección de origen y dirección de destino de los paquetes de datos. Y es comprensible que sea así debido a que es necesario que cada uno de los paquetes que viajan a través de internet transporte consigo la dirección IP de la máquina que lo ha enviado y la del equipo que debe recibirlo para asegurar que llegará a su destino correctamente.

Ipv6

Las direcciones IP asignadas mediante el protocolo IPv4 son números de 32 bits y se escriben en notación decimal con puntos, por lo que tienen el formato 192.36.7.22. La menor dirección IP es 0.0.0.0, y la mayor es 255.255.255.255. Las direcciones asignadas por el protocolo IPv6, sin embargo, tienen una longitud de 128 bits, como hemos visto, y se escriben en ocho grupos de cuatro dígitos hexadecimales cada uno de ellos, por lo que tienen la forma 2001:0ab8:85b3:0000:0000:8a2e:0260:7224.

Utilizar muchos más bits permite a la arquitectura de direccionamiento IPv6 poner en nuestras manos un mapa de direcciones mucho más amplio que IPv4. Un último apunte: según Google actualmente algo menos del 38% de sus usuarios accede a este buscador a trav´es de IPv6.

Estos son el corazón y el cerebro de internet: el modelo TCP/IP y el protocolo IP

Los investigadores que dieron forma a la red que ha evolucionado hasta transformarse en la internet que todos conocemos hoy se dieron cuenta de que era imprescindible definir una arquitectura que describiese con precisión cómo debía ser esa red y de qué capas o niveles debía estar compuesta.

El modelo de referencia TCP/IP implementa cuatro capas: acceso a la red, interred, transporte y aplicación

Su propósito era delimitar el alcance de esos niveles, de manera que cada uno de ellos se encargase de resolver unos determinados problemas y evitar así que los niveles que tiene por encima deban esforzarse para solucionar esos mismos desafíos. De alguna forma es una estrategia similar a la filosofía «divide y vencerás» de la que posiblemente todos hemos oído hablar en alguna ocasión.

El modelo de referencia OSI (interconexión de sistemas abiertos) propuesto por la Organización Internacional de Normalización (ISO) no es realmente una arquitectura de red debido a que no describe los servicios y los protocolos que debe utilizar cada capa.

Es un modelo importante que describe siete capas o niveles diferentes (física, enlace, red, transporte, sesión, presentación y aplicación), pero su relevancia se ciñe sobre todo al ámbito académico, por lo que no indagaremos más en él para prestar toda nuestra atención al modelo de referencia TCP/IP, que es la arquitectura de red flexible que utiliza internet.

A diferencia del modelo OSI, esta arquitectura implementa solo cuatro capas y no siete. En la base y en contacto con el hardware de nuestros equipos reside la capa de acceso a la red. TCP/IP no establece con precisión cómo debe implementarse este nivel, por lo que solo estipula de una forma un tanto ambigua que el dispositivo debe poder conectarse a la red para permitir el envío de paquetes IP.

Justo encima reside el nivel de interred, que es considerado por muchos autores el auténtico corazón de esta arquitectura de red. Su función es permitir que nuestros dispositivos puedan entregar nuestros paquetes de datos a la red a la que están conectados.

La capa de interred tiene una peculiaridad muy interesante: debe garantizar que los paquetes de datos lleguen a su destino, aunque pueden hacerlo en un orden diferente a aquel en el que fueron enviados. Las capas superiores de la arquitectura son las responsables de ordenar los paquetes correctamente si es necesario.

Para Tanenbaum el protocolo IP es «el pegamento que mantiene unida internet»

Para llevar a cabo su cometido esta capa define con precisión qué estructura deben tener los paquetes de datos, y también utiliza un protocolo conocido como IP (Internet Protocol) que, acertadamente, el influyente y muy respetado Andrew S. Tanenbaum califica como «el pegamento que mantiene unida internet». Su descripción refleja claramente lo importante que es este protocolo.

De hecho, este protocolo implementa los recursos necesarios para que nuestros paquetes de datos lleguen a su destino. No importa si la máquina que los envía y la que debe recibirlos forman parte de dos redes diferentes, y tampoco si entre ambas hay muchas otras redes que deberán actuar como intermediarias.

Internet es un auténtico laberinto, por lo que podemos imaginar el protocolo IP como el mapa que utilizan los paquetes de datos de nuestros dispositivos para saber qué camino deben seguir para llegar a su destino. Y, por supuesto, los paquetes que deben recibir nuestros dispositivos procedentes de otras máquinas utilizan este mismo recurso para seguir el camino inverso.

Las dos capas de la arquitectura TCP/IP que aún no hemos visto son los niveles de transporte y aplicación. El primero de ellos está justo encima de la capa de interred, lo que significa que esta última tiene la responsabilidad de proporcionarle los servicios que necesita para llevar a cabo su cometido. De igual forma que el protocolo IP es el corazón de la capa de interred, el protocolo TCP es el cerebro de la capa de transporte. El cometido de este nivel es permitir que las dos máquinas involucradas en la conversación a trav´és de internet, la que envía los paquetes y la que los recibe, puedan mantener su diálogo.

Modeloosi
Estructura de niveles o capas propuesta por el modelo OSI (interconexión de sistemas abiertos).

El protocolo TCP fragmenta los datos y construye los paquetes en la máquina que los emite, mientras que en el equipo que los recibe se encarga de reconstruir el mensaje original a partir de los paquetes de datos que van llegando. La capa de transporte también utiliza otro protocolo conocido como UDP (User Datagram Protocol), que podemos traducir al español como protocolo de datagrama de usuario.

A diferencia de TCP, UDP permite enviar paquetes de datos a través de internet sin necesidad de haber establecido previamente una conexión. Tampoco se encarga de controlar el flujo de los paquetes, que pueden llegar al destino desordenados, y no estipula una confirmación de entrega. De alguna forma UDP es más anárquico que TCP, por lo que solo encaja en aquellas aplicaciones que implementan estas características por sí mismas.

Aún nos queda echar un vistazo a la última capa de la arquitectura TCP/IP: el nivel de aplicación. Esta capa está colocada encima del nivel de transporte, y contiene todos los protocolos de alto nivel, que son los que están más cerca de las aplicaciones que utilizamos los usuarios. Dos de los que repasaremos más adelante por su importancia son DNS y HTTP, aunque la capa de aplicación también contiene muchos otros (algunos están en desuso), como FTP o TELNET.

El viaje que siguen nuestros datos en internet es una auténtica aventura

Como hemos visto, la capa de interred se responsabiliza de transportar los paquetes de datos desde el origen hasta el destino, y para lograrlo con frecuencia deben pasar por muchos enrutadores intermedios. Estos dispositivos se encargan a grandes rasgos de actuar como intermediarios entre unas subredes y otras, y para hacerlo posible recogen los paquetes que reciben y se los envían al siguiente enrutador. Eso sí, esta decisión se lleva a cabo de una forma inteligente.

La capa de interred debe proporcionar a los enrutadores la información que necesitan conocer para elegir la trayectoria adecuada que debe seguir cada paquete de datos

Esto quiere decir, sencillamente, que la capa de interred debe proporcionar a los enrutadores la información que necesitan conocer para elegir la trayectoria adecuada que debe seguir cada paquete de datos. Y, como podemos intuir, no es sencillo hacerlo debido a que el elevado volumen de datos que circula a través de internet de forma permanente requiere balancear el tráfico para evitar que unas líneas de comunicación se saturen mientras otras permanecen infrautilizadas.

Para resolver este desafío la capa de red cuenta con los algoritmos de encaminamiento, que se encargan de decidir qué ruta debe seguir cada paquete de datos teniendo en cuenta el tráfico y las condiciones en las que se encuentra cada subred en ese momento. Cabe la posibilidad de que dos paquetes que tienen un mismo destino y un único origen sigan caminos diferentes si las circunstancias de la red lo exigen para que sean transportados de la forma óptima.

Afortunadamente no es necesario que conozcamos con detalle qué propone cada algoritmo de encaminamiento, pero es interesante saber que hay unos cuantos, y cada uno de ellos pretende resolver el transporte de los paquetes de datos recurriendo a una estrategia diferente. La capa de interred también dispone de algoritmos de control de la congestión, que, como podemos intuir, pretenden evitar que una subred se sature.

Cuando aparece este problema el rendimiento de esa línea se degrada debido a que los enrutadores son incapaces de administrar todo el tráfico y comienzan a perder paquetes de datos. De alguna forma la gestión del tráfico en internet no es muy diferente de la administración del tráfico en las carreteras.

Los DNS nos permiten utilizar internet de una forma mucho más sencilla

Unos párrafos más arriba hemos visto que las direcciones IP nos permiten identificar con precisión todos los dispositivos y los equipos de red que intervienen en internet. Las asignadas mediante el protocolo IPv4 se escriben en notación decimal con cuatro grupos de tres dígitos, por lo que tienen, como hemos visto, esta forma: 192.36.7.22. Y las asignadas mediante IPv6 son aún más complicadas porque se escriben en ocho grupos de cuatro dígitos hexadecimales cada uno de ellos, adquiriendo la forma 2001:0ab8:85b3:0000:0000:8a2e:0260:7224.

Los DNS traducen las cadenas ASCII que nosotros podemos recordar en direcciones de red

Para una persona es muy complicado memorizar estas ristras de números y caracteres, por lo que sería un problema difícil de sortear que nos viésemos obligados a introducir en las aplicaciones que utilizamos habitualmente la dirección IP del equipo en el que se aloja la página web que queremos consultar, o la de la máquina destinataria del mensaje de correo electrónico que estamos a punto de enviar.

Afortunadamente, los DNS (Domain Name System), o sistema de nombres de dominio, nos lo ponen mucho más fácil. Y es que son el mecanismo que se encarga de traducir las cadenas ASCII que nosotros podemos recordar con relativa facilidad, como 'pepito.grillo@xataka.com' o 'www.xataka.com', en las direcciones de red que manejan los protocolos de internet.

Hasta aquí llega la parte sencilla, que es la realmente importante desde el punto de vista de un usuario y la que merece la pena conocer. A quien le apetezca saber algo más acerca de este recurso le interesará estar al tanto de que los DNS se implementan como un sistema de nombres jerárquico basado en dominio bajo la forma de una base de datos distribuida.

Para llevar a cabo la traducción de una cadena ASCII a una dirección de red las aplicaciones llaman a un procedimiento conocido como resolvedor y le pasan como parámetro la cadena que es necesario traducir. A continuación, el resolvedor envía un paquete UDP a un servidor DNS local, que localiza el nombre y le devuelve la dirección IP asignada a esa cadena ASCII. Por último, el resolvedor entrega la dirección de red a la aplicación que ha solicitado la traducción, que a partir de ahí podrá establecer una conexión TCP con la máquina destino o enviarle paquetes UDP.

Qué es en realidad la web y por qué el protocolo HTTP nos ha traído hasta aquí

La web ha sido un éxito monumental. De hecho, muchas personas creen que es lo mismo que internet, pero no lo es; tan solo es un servicio que nos permite acceder a un determinado tipo de contenido alojado en algunas de las máquinas que forman parte de esta gran red. Fue creada en 1989 por el físico Tim Berners-Lee mientras investigaba en el CERN con un propósito: facilitar el acceso a una colección de documentos vinculados y distribuidos por millones de máquinas en toda internet.

La web fue creada con el propósito de facilitar el acceso a una colección de documentos vinculados y distribuidos por millones de máquinas en toda internet

Cuando los usuarios utilizamos nuestro navegador para recorrer nuestras páginas web favoritas y vamos saltando de una a otra al hacer clic en los hiperenlaces, estamos empleando la web. Sin embargo, es importante que recordemos que este recurso forma parte de internet, pero no equivale a internet. Está contenido en esta gran red y es solo una parte de ella. En esencia utiliza una arquitectura cliente-servidor, de modo que lo que vemos los usuarios es una colección de documentos que pueden incorporar hipervínculos, que no son otra cosa que enlaces que vinculan dos documentos y nos permiten saltar de uno a otro con facilidad.

El otro ingrediente de esta ecuación es el servidor, que, sencillamente, es el programa que se encarga de entregar las páginas solicitadas por los clientes que se conectan a él. El diálogo entre el cliente y el servidor se establece utilizando un lenguaje conocido como protocolo HTTP (HyperText Transfer Protocol), o protocolo de transferencia de hipertexto. Este lenguaje está evolucionando constantemente para hacer posible la implementación de nuevas funcionalidades y mejorar la experiencia de los usuarios, y su última revisión estandarizada es la 5.2. Os hablamos de ella en el artículo que enlazo aquí mismo.

Por qué a veces una parte de internet se va al garete

La visión de internet que pretendemos ofreceros en este artículo es superficial y solo aspira a que los usuarios estemos mínimamente familiarizados con los protocolos y las tecnologías más relevantes que utilizamos casi a diario. Sin embargo, pese a su limitado alcance este reportaje nos permite intuir la complejidad que se esconde bajo una gigantesca red de ordenadores y equipos de comunicaciones que según la consultora Statista en enero de 2021 era utilizada por más de 4600 millones de personas en todo el planeta.

La arquitectura de internet y buena parte de los servicios que nos ofrece han sido diseñados para ser tolerantes a fallos con el propósito de que si algo se rompe los usuarios ni siquiera nos demos cuenta de que algo ha fallado. Uno de los ingredientes utilizados con frecuencia para implementar esta tolerancia a los errores es la redundancia, pero hay muchas otras estrategias que también persiguen mantener en pie los servicios que nos propone internet cuando vienen mal dadas. Sin embargo, pese a todos estos esfuerzos, de vez en cuando algo se rompe. Y los usuarios lo notamos.

Si las personas que utilizamos internet nos damos cuenta de que algo no va bien es porque se ha producido un error grave del que uno o varios servicios no han podido recuperarse de una forma transparente. La raíz del problema puede ser muy diversa, por lo que podemos ilustrar esta situación echando un vistazo a las dos grandes caídas que todos hemos presenciado durante los últimos meses. Una de ellas tuvo lugar a principios del pasado mes de junio, y provocó que Amazon, Twitch, Vimeo y Reddit, entre muchas otras redes sociales y servicios, quedasen fuera de combate durante una larga y tediosa hora.

En aquella ocasión el origen de la caída estuvo en Fastly, un CDN (Content Delivery Network) bastante popular que tiene una cartera de clientes envidiable (de ahí que tantos servicios importantes se viesen afectados). Un CDN es una infraestructura de hardware y software diseñada para acelerar el acceso a un conjunto determinado de servicios web, y para hacerlo posible almacena una parte de los datos que manejan esos servicios en un sistema de caché de alto rendimiento. Os lo explicamos todo con más detalle en el artículo que enlazo aquí mismo.

La otra gran caída en la que podemos fijarnos para ilustrar en qué medida una parte de internet puede quedar fuera de combate tuvo lugar hace solo unos días, y se llevó por delante a Facebook, Instagram y WhatsApp, que, literalmente, desaparecieron de la red. En esta ocasión el origen del problema fue el protocolo BGP (Border Gateway Protocol), o protocolo de pasarela exterior, que, a grandes rasgos, se encarga de optimizar el transporte de los paquetes de datos entre redes diferentes, ayudando a cada una de ellas a informar a las demás de su presencia. Si queréis indagar un poco más podéis echar un vistazo al artículo en el que lo explicamos con más detalle.

Algunas lecturas recomendadas si queréis indagar más en la arquitectura de internet

Afortunadamente, en la web podemos encontrar muchísima literatura que nos permite indagar mucho más en la arquitectura de internet y conocer mejor cómo están implementados sus servicios. Si os apetece profundizar y este artículo os ha dejado con ganas de más os sugerimos que echéis un vistazo a los artículos de Mozilla dedicados a la estructura de internet o al lenguaje HTML; al artículo de la Universidad de Stanford (disponible en inglés) que repasa el funcionamiento de esta gran red; o a la abundante documentación que ha publicado el W3C, que es la organización que promueve la adopción de los estándares utilizados por la World Wide Web.

Las lecturas que os acabamos de proponer son una pequeñísima selección de los casi innumerables recursos que internet pone a nuestro alcance. No obstante, también tenemos otra opción: los libros en papel. El abanico de opciones en este ámbito es muy amplio, pero no puedo resistirme a recomendaros como punto de partida dos de mis libros favoritos: 'Redes de computadoras', de Andrew S. Tanenbaum, y 'Comunicaciones y redes de computadores', de William Stallings. Ambas son publicaciones de carácter académico que lo explican todo con profundidad y un rigor indudable, lo que las ha colocado como dos auténticos clásicos que siguen siendo utilizados pese a su veteranía en muchas escuelas y facultades de informática.

Imagen de portada: Junior Teixeira

Imágenes: Wikimedia | Offnfopt

-
La noticia Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO) fue publicada originalmente en Xataka por Juan Carlos López .



via Xataka https://ift.tt/P1GLgyv