Google Analytics y cómo convertir tus acciones en dinero.

Google Analytics y cómo convertir tus acciones en dinero.

El poder de la analítica web

El poder que tienen las herramientas de analítica web muchas veces no está suficientemente valorado por las empresas. Bien por falta de conocimientos técnicos o personal cualificado, en muchas ocasiones un mal o insuficiente análisis de nuestras acciones nos puede llevar a la pérdida de dinero. (más…)

Seo para principiantes

Seo para principiantes

Posicionamiento web SEO

Hablar de SEO supone hablar de indexación, etiquetas HTML, errores 4xx, y otro sinfín de factores técnicos que hay que tener en cuenta para conseguir visibilidad en Internet. Sin embargo, en este post (y como su propio nombre indica), os quiero mostrar de alguna manera una forma sencilla de entender  el posicionamiento orgánico: el SEO para novatos. Si queréis algo más directo, podéis echarle un vistazo a los primeros pasos SEO que tenéis que llevar a cabo en vuestro nuevo proyecto.

Supongo que ya tendrás en mente conceptos básicos de lo que es el posicionamiento orgánico, por lo que daré por hecho algunos cosas. Os voy a mostrar una metodología muy útil para realizar consultorías básicas de SEO, de forma muy sencilla y sin necesidad de tener conocimientos técnicos. La metodología tiene el acrónimo “M.U V.A.C.I.O.S” y la he aprendido del gran Sico de Andrés. Empecemos:

Posicionamiento organico SEO

Metodología M.U V.A.C.I.O.S

Para empezar esta guía de SEO para principiantes, explicaremos cada una de las letras del acrónimo para entender los factores que a día de hoy son los más importantes para el todopoderoso Google.

V= Velocidad de carga

Es bien sabido que Google penaliza de algún modo las webs que no están optimizadas en cuanto a velocidad de carga, tanto para versión desktop como para móvil. Cuanto mas lenta sea nuestra web, menos Kbs descarga el bot de rastreo y más tarda en rastrear el dominio ¿Que significa esto? Que estamos desaprovechando el poco crawl budget que Google nos dedica a nosotros. Estamos perdiendo oportunidades de indexación y ya sabes; cuantas más URL’s tengamos indexadas, más visibilidad tendremos (siempre que sean URL’s relevantes). Realizar los cambios necesarios para mejorar nuestra velocidad de carga requieren de conocimientos más técnicos (como la Gzip compression), y te había prometido un SEO para principiantes en el que no harían falta este tipo de conocimientos. Es por ello, por lo que no tienes que encargarte tú de eso, sino de comprobar que velocidad de carga está teniendo nuestra web y cómo podemos resolverla.

Para ello existen multitud de herramientas, y además, es recomendable utilizar más de una para testar tu velocidad de carga:

Recuerda el Mobile First, prioriza la velocidad de carga que estamos teniendo en móvil, optimízala y luego encárgate de Desktop. Sigamos con nuestra guía de posicionamiento web: SEO para principiantes.

A= Autoridad

El famoso linkbuilding. Recuerda que para ir a una cena de gala no sólo necesitas ir bien vestido, sino que necesitas lo más importante; la tarjeta de invitación. Para Google esto es esencial, no sólo es importante que tengas un bueno SEO On Page, sino que necesitas tener esta tarjeta de invitación de sites coherentes con tu temática, y si son dominios de autoridad, ¡mejor que mejor! Recuerda que este enlazado ha de ser natural en la medida que sea posible, cuanto más, mejor. Pero todos sabemos que esto no es así en el 99,99% de los casos y que siempre se puede recurrir a la “contratación” de contenidos externos que enlacen hacia tu web.

Linkbuilding en SEO

Crea una lista de dominios interesantes a primera vista (que no sean de tu competencia) y estén posicionados por tus core keywords. Dominios que puedan enlazarte y sean coherentes con tu contenido (utiliza el coco, nadie mejor que tú conoce tu oferta). Utiliza Sistrix, Majestic o derivados para saber quien está enlazando a tu competencia directa y añádelos a tu lista. Ve descartando dominios que puedan considerarse spam, o que tengan un nivel de calidad demasiado bajo (utiliza las métricas que facilitan las herramientas como el CF Y el TF de Majestic) Cuando tengas tu lista completa, analiza si es posible contactar con ellos y…. ¡utiliza el ingenio!

C= Contenido

Ya sabemos los clásicos del SEO, y este es uno de ellos. En esta guía de SEO para principiantes no podía faltar la importancia que tiene el contenido dentro de nuestra estrategia de posicionamiento orgánico. La clave para todo esto, realmente es no pensar en optimizar nuestro contenido sólo para Google sino priorizar al usuario, que es realmente quien disfruta (o no) de nuestra web. Redacta contenido fresco, novedoso (ni se te ocurra copiar) y sobre todo… RELEVANTE para el usuario. Realiza un investigación previa a la redacción de contenido para ver si ese tema en concreto es de interés y tiene una tendencia de búsqueda relevante y ponte manos a la obra.

I= Indexabilidad

Podríamos hacer un post entero hablando de este factor de posicionamiento orgánico, seguramente el más técnico de todos. Para definirlo de alguna manera, la indexabilidad sería la “capacidad” que tiene nuestra web para ser leída e indexada por los motores de búsqueda. Lo fácil o difícil que se lo estamos poniendo al bot de  rastreo. Existen multitud de herramientas de rastreo que simulan a los robots de rastreo y con los que podemos detectar fallos realmente importantes. Para ello existen:

Search Console de Google: imprescindible utilizarla como medio de comunicación entre nuestra web y Google. Nos da métricas muy importantes de rastreabilidad e indexabilidad.

Screaming Frog: para mí, herramienta imprescindible en todo proceso SEO técnico. Podemos rastrear nuestra web simulando los distintos robots de rastreo y conocer los distintos errores que nos devuelve la web (entre muchísimas más opciones)

También tenemos que tener en cuenta la arquitectura interna de nuestra web. Tener un buen enlazado interno, limpio y lógico. No tener demasiados niveles de profundidad y priorizar a lo que más nos interese transferir autoridad (Link Juice).

O= Optimización

Como habíamos comentado antes, necesitamos hacer una investigación previa para la redacción de contenidos. Es en ésta parte donde tenemos que elegir los términos objetivo por los que me quiero posicionar y optimizar así el contenido. No olvides que para cada URL hay que asociar dos términos clave como mucho. Recuerda también que no hay que sobreoptimizar nuestro contenido repitiendo demasiadas veces nuestro término objetivo. Ahora Google tiene en cuenta la relación semántica de términos por lo que no repitas siempre los mismos, utiliza kw relacionadas con el campo semántico.

Recuerda optimizar con tus kw objetivo las etiquetas Titles (es la primera que lee Google), Description, y los encabezados H1, H2…

S = Seguridad

Todos conocemos ahora los certificados SSL ¿no? Los protocolos de entrada https son premiados por Google por lo que si vas a empezar con un nuevo proyecto, ya deberías ser https. Si tu web es http y tiene un buen posicionamiento deberías hacer una migración completa de todas tus URL’s http hacia tus URL’s https, mediante redireccionamientos 301 para evitar una duplicación completa de nuestra web.

Por último, en esta guía seo para principiantes, quería dejar para lo último los dos factores que debería englobar a todos los demás de los que hemos hablado.

La U= Usabilidad/User Experience y la M=Móvil.

Todas los factores de los que hemos hablado deberían valorar estas dos dimensiones. Es cierto que debemos optimizar todo lo que hemos hablado para el posicionamiento orgánico, pero no sólo pensar en Google sino en la experiencia de usuario: tener un buen CTR, pocos rebotes, etc. lo cual es muy importante para el rankeo. Y por supuesto, analizar esto tanto para el móvil como para el desktop. Aún así, mi recomendación es que si quieres empezar a optimizar tu web, hazlo primero para el móvil, y luego para el desktop.

Hasta la pequeña guía de SEO para principiantes, espero que os haya servido de ayuda. ¡Podéis comentar o contactarme!

Velocidad de carga: WPO

Velocidad de carga: WPO

WPO es el acrónimo de Web Performance Optimization, lo que conocemos en SEO como velocidad de carga de la web. Como todos sabemos, es un factor a tener muy en cuenta pues tiene un impacto muy grande en la experiencia de usuario, y esto Google lo sabe. Si al meterte en una web, tarda demasiado en cargar, automáticamente nos largamos. Muchos aseguran que el SEO en 2018 se va a caracterizar en gran medida por velocidad de carga y como no, el mobile first. (Echa un vistazo a los factores SEO más importantes)

Tampoco olvidemos que mejorar la velocidad de carga de la web es un factor que premia el Quality Score ya que Google entiende que mejora la experiencia de usuario. Por ello, si hacemos campaña de Adwords, mejorar este aspecto es algo que nos puede ayudar tambien a pagar menos por clic.

La WPO es uno de los principales factores a tener en cuenta en el SEO por el gran impacto que tiene en la experiencia de usuario.

Incrementar la velocidad de carga de nuestra web tiene unos efectos muy positivos en términos de rastreabilidad. Google premia si nuestro site “pesa” menos, rastreándonos más urls al día y descargando mas bytes. Esto puede significar a su  vez un incremento en urls relevantes indexadas, y por tanto, mayor visibilidad.

Es esta la tendencia que hay que mantener en el tiempo, y para ello, existen multitud de factores para obtener un buen margen de mejora. Para testear la velocidad de carga de tu web, puedes utilizar multitud de herramientas como:

Page Speed Insights: Es la herramienta que facilita Google y además te dice las recomendaciones técnicas que tienes que llevar a cabo para mejorar la velocidad de carga de tu web.

Pingdom: Realiza un análisis de tu web, y también te da algunas recomendaciones sobre como mejorar.

Las directrices más sonadas a la hora de optimizar la velocidad de carga suelen ser:

  • Contratar un hosting de calidad que asegure unos buenos tiempos de respuesta.
  • Implementar la compresión gzip. Puede reducir entre un 50% y un 70% el tamaño del archivo, y además el servidor consume menos ancho de banda.
  • Optimizar los códigos de programación HTML, JavaScript y CSS. Minificar estos códigos puede ahorrar bastantes bytes de carga, optimizando así su peso y acelerando los tiempos de descarga y análisis.
  • Compresión de las imágenes para optimizar su peso y que no se ralentice la web al cargarlas.
  • Reducir redirecciones para evitar que el servidor haga peticiones innecesarias. Sobre todo evitar los bucles de redirección.
  • Configuración adecuada de tiempos de cacheado. Este se debe hacer desde el archivo .htaccess para el cacheado de navegador.
  • Los códigos Javascript y CSS se sitúan normalmente en la cabecera de la web, cargándose estos contenidos antes que el código de la página, es decir, ralentizándose así que se muestren contenidos en el navegador. Google recomienda colocar en la cabecera de las páginas sólo el código Javascript y CSS que se vaya a utilizar en la página en concreto o bien aplazar la carga de éstos, pero eso sí, ojo con aplazar la carga de CSS porque generar un efecto extraño en dicha carga. Haz pruebas antes de realizar este aplazamiento, tanto de JS como de CSS.

Existen algunos factores más a tener en cuenta, aunque estos son por regla general los más sonados y los principales. Sin embargo, os quería hablar de uno más en concreto el cual veo bastante interesante. Se trata de la utilización de CDN.

¿Que es una CDN?

La CDN o Content Delivery Network es una infraestructura informática conformada por distintos servidores distribuidos geográficamente en diferentes territorios. Si contratamos este tipo de servicios, parte del contenido estático de nuestra web se almacenará en ellos. Recordemos que el contenido estático es aquel que para mostrarse no se hacen peticiones a base de datos, como el contenido dinámico. Entonces, habrá copias del contenido estático (imágenes, javascript , css) repartidas por todos los territorios geográficos en los que se encuentren los servidores. Pues bien, cuando un usuario entre tu página web, recibirá esta información del servidor que se encuentre localizado más cerca, reduciendo así los tiempos de respuesta, y por ende, la velocidad de carga.

Existen numerosos servicios de CDN, unos gratuitos y otros de pago. Lo que diferencia unos de otros principalmente es el número de servidores de los que disponen, y la zona geográfica que abarcan. Resulta obvio que cuanto mayor sea esto, mayor será la respuesta de tu web en cualquier parte del mundo.

¿Para que sirve una CDN?

Como ya hemos comentado, es una infraestructura de servidores que ayuda a reducir la respuesta de la web, pues muestra el contenido estático almacenado en el servidor más cercano a cada usuario. Es especialmente recomendable para webs cuyo tráfico provenga de distintas zonas geográficas pero no es el único caso en el que esto es recomendable. Puede ser muy útil incluso si tu tráfico se encuentra en tu misma zona geográfica y no en otras. Para procesar tu página, el navegador tiene que descargar todos los recursos necesarios para mostrarla, pero solo acepta un número limitado de transferencias simultáneas desde un único servidor. Pues bien, al servir el contenido desde múltiples servidores, estamos facilitando esta descarga de recursos ya que no forzamos a que se haga desde un único servidor. Es por ello, por lo que no sólo es útil para acerca geográficamente estos recursos estáticos al usuario, sino para aliviar la descarga de recursos desde múltiples servidores, mejorando mucho los tiempos.

Las stories de Google: AMP Stories

Las stories de Google: AMP Stories

Hace unos años Snapchat puso de moda las conocidas stories, aunque realmente ha sido Instagram quien ha aumentado considerablemente su uso. Esto es realmente, una forma sencilla, rápida y eficaz de condensar la información que podemos visualizar. Pues bien, Google ya muestra sus propias stories, tras anunciarlo unos meses atrás y llevar a cabo una serie de pruebas. Estas stories son las que conocemos como AMP Stories, y se muestran principalmente para medios de comunicación y creadores de contenido.

AMP Stories: Una forma rápida y sencilla de mostrar información al usuario.

Como ya sabemos, las Acelerated Mobile Pages o AMP, son páginas cuyo código está optimizado de tal manera que su peso se reduce bastante, lo que se traduce en una experiencia de usuario bastante más eficiente. Aunque de momento las AMP Stories sólo se muestran al tráfico mobile, es un formato que Google quiere expandir a todos los dispositivos. Los creadores de contenido ya pueden seguir las directrices necesarias en sus páginas para implementar las AMP Stories, teniendo disponible toda la documentación en la web de AMP Project. 

Las AMP Stories surgieron para darle al usuario una experiencia mucho más amena a la hora de buscar información. Con este mecanismo, cuando realizamos en Google una búsqueda sobre un medio (o creador de contenidos), nos aparecerá en las primeras posiciones este formato de AMP Stories.  Podemos leer las noticias más recientes y relevantes de un medio, pasando de una a otra con el mismo mecanismo de Instagram Stories, simplemente deslizando el dedo.

AMP STORIES

La forma de visualizar las noticias desde mobile se hace mucho más sencilla gracias a este formato de AMP Stories

Entidades como CNN, The Washinton Post o Masheable, han participado junto con Google para crear este proyecto. Para los profesionales que quieran implantar esto en sus páginas webs, existen plantillas de diseño preestablecidas para implementar este formato en sus contenidos, a través de las versiones de código AMP.

Utilidad del Análisis de Logs en SEO

Utilidad del Análisis de Logs en SEO

¿Que son los logs?

Los logs suponen registros de actividad en la web, normalmente almacenados en ficheros de texto, y que sirven para almacenar dicha información de actividad. Cuando se accede a nuestra web, se realizan distintas peticiones al servidor. Estas peticiones almacenan una serie de datos relativos al navegador, la IP, la fecha, la url o el status code, entre otros. Cada petición o hit, se va escribiendo sobre el fichero de texto y tienen la siguiente forma:

66.289.85.57 – – [11/June/2014:09:34:00 +0200] “GET /muebles/sofas/ HTTP/1.0” 200 1382 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +hcp://www.google.com/bot.html)

Herramientas para analizar Logs

Como siempre, en este sector existen multitud de herramientas para realizar un análisis de estos ficheros. Lo primero que tienes que hacer, es acceder a tu servidor web y descargar estos ficheros de registro. Posteriormente, deberías importar estos datos a la herramientas que vayas a utilizar. Yo personalmente utilizo, Screaming Frog Log Analyzer, pero existen multitud de ellas como:

Utilidad del análisis de Logs

De alguna manera, son las migas de pan que se dejan los visitantes de nuestra web. A priori, quizás aún no veas la utilidad de esto, pues posiblemente pensarás que para eso está la analítica web. Sin embargo, y aunque no difieran mucho en el objetivo que tiene la analítica y el análisis de logs (sacar conclusiones a partir de datos), la utilidad que vemos con el análisis de logs es algo diferente.

El caso es que mientras con la analítica web pretendemos conocer el comportamiento del usuario, en el análisis de logs no es tan importante esto como conocer el comportamiento que tienen los robots de rastreo en nuestra web. Gracias a la información que almacenan estos ficheros, podemos conocer qué tipo de robot ha sido el que nos ha visitado (Yandex, BingBot, Google Bot Regular, etc) Podrás ir intuyendo la utilidad que tiene esto, ¿no?

Con un buen análisis de estos ficheros, podemos conocer lo “atractivos” que somos a ojos de los robots. Un buen punto de partida es conocer cuantas URL’s nos están crawleando al día los robots, ya que representa el crawl budget que estos nos dedican y es un indicativo de lo importante que somos para ellos.

Es interesante, realizar este análisis separando cada uno de los robots, para así entender como se comportan cada uno de ellos en nuestra web de cara a la realización de futuras optimizaciones SEO.

Análisis de logs en SEO

El análisis de los archivos logs en SEO supone un factor importante tanto en la parte técnica como en la parte estratégic.a

 

¿Qué conclusiones podemos sacar?

Vayamos al grano y hablemos del jugo que podemos sacarle a este análisis. Como hemos comentado, podemos realizar dicho análisis estudiando por separado el comportamiento de cada crawler. Google tiene prácticamente la hegemonía del sector de motores de búsqueda aquí en España, por lo que tiene sentido darle prioridad al análisis de sus robots.

  • Como hemos comentado, es útil estudiar el “tiempo” que nos están dedicando los robots. Para ello, podemos comprobar el número de peticiones que han realizado a nuestro servidor o el número de urls rastreadas al día. Es un indicador del “interés” que tienen en nuestra web. Pero ten en cuenta al sacar cualquier tipo de conclusión, que tienes que relativizar estos datos con el tamaño y el histórico de la web. Que el robot analice 100 urls al día puede ser un buen dato para una web pequeñita, pero puede suponer algo extraño si la web es de mayor tamaño.
  • Para una auditoria técnica, un análisis de logs es algo (para mí), imprescindible. En la herramienta de logs de Screaming, podemos cruzar los datos de los logs con las urls resultantes de un rastreo propio que hagamos (con Screaming Frog por ejemplo), con estos datos, podemos sacar bastante información sobre el estado técnico de la arquitectura web. La herramienta, nos devuelve todos los status codesque han recibido los distintos robots, con las que podemos sacar conclusiones de cara a realizar optimizaciones técnicas (Resolver redireccionamientos, errores 4xx, enlaces internos incorrectos, etc). Recuerda que si determinadas urls que devuelven redireccionamientos u otro tipo de códigos de error están recibiendo un número elevado de peticiones por parte de los robots, estamos desaprovechando el crawl budget.
  • Podemos conocer qué urls en concreto están recibiendo más peticiones por parte de los robots, y cuales menos. Como sabrás, que este número de peticiones sea mayor para una url, quiere decir que el robot le está dando una importancia superior al resto. Esto puede ser por múltiples factores SEO: mayor tráfico, más y mejor enlazado, contenido más relevante y actualizado, etc. Lo que tendríamos que hacer es comprobar si entre las urls más crawleadas se encuentran las que más interesantes consideramos desde el punto de vista estratégico.
  • También podemos sacar conclusiones parecidas con los directorios de la web.Podemos comprobar cuales de estos directorios son los que más peticiones reciben por parte de los robots y cuales los que menos. De nuevo, tenemos que pensar desde el punto de vista estratégico si nos interesa que estos directorios reciban más o menos peticiones. Podríamos bloquear mediante robots.txt aquellos directorios que menos atractivos nos parecen y que están recibiendo peticiones, para así redistribuir estos hits hacia otros que pudieran ser más interesantes. También podríamos decidir SEOptimizar determinado directorio, para impulsar así su rastreo y mejorar su posicionamiento si realizamos buenas prácticas.

En definitiva, y como todo en SEO, las oportunidades que nos brinda este análisis de Logs son múltiples. Sin embargo, los datos están ahí para analizarlos, pero sacar buenas conclusiones va a depender de ti y de tu SEOnocimiento:)

Alejandro Romero López

Progressive Web Apps | Tendencias 2018

Progressive Web Apps | Tendencias 2018

Seguramente muchos de vosotr@s habréis escuchado el término Progressive Web App o PWA, sobre todo si os dedicáis a la programación o al SEO. Aunque lo cierto es que esta tecnología no es nueva ni mucho menos, si es verdad que se ha puesto de moda, sobre todo desde que en 2017 Google hablara de ella en su conferencia de desarrolladores. Desde entonces se ha convertido en una tecnología emergente y por ello es obvio que hablemos hoy de ella como una tendencia.

Para comprender adecuadamente esta tecnología, vamos a hablar antes de las aplicaciones webs y las aplicaciones nativas.

Aplicaciones Webs

Las aplicaciones webs son aquellas que tienen cabida en un navegador web y que no están diseñadas específicamente para un sistema operativo específico, como Android o iOS. En ellas, puedes hacer prácticamente lo mismo que en la aplicación nativa, pero no es necesaria su descarga y tienen prácticamente la misma apariencia y funcionalidad que éstas. Pueden ofrecer una peor experiencia de usuario, ya que no se adaptan a todas las características de los dispositivos. Entre ellas podemos encontrar a Facebook, Youtube o Instagram (Versiones web). Realmente también sería correcto que hablásemos de ellas como páginas webs simplemente, pero veo oportuno hacer esta diferenciación para entender mejor el tema de las Progressive Web Apps.

Aplicaciones Nativas

Las aplicaciones nativas, a diferencia de las anteriores, si necesitan ser descargadas para poder utilizarse y están desarrolladas para un sistema operativo en concreto. Suelen ocupar una parte importante de la memoria de nuestros dispositivos. Al estar desarrolladas específicamente para ese sistema operativa, se adaptan al 100% de las funcionalidades y características del dispositivo. Los costes de desarrollo suelen ser elevados, ya que si queremos tener presencia en todos los sistemas operativos tenemos que realizar un desarrollo a medida para cada uno de ellos.

Progressive Web Apps

Para entender mejor que es PWA diremos que es una mezcla entre los formatos de aplicación antes comentados. Fusiona las ventajas de cada una de ellas para sacar un mejor rendimiento. Podríamos afirmar que son webs o aplicaciones web que se aprovechan de las ventajas de las aplicaciones nativas. De esta forma se pretende conseguir una mayor optimización en cuanto a su funcionamiento, que mejore la experiencia de usuario y consiga mejores niveles de engagement. Debido a su apariencia, que permite una experiencia a pantalla completa, el usuario cree estar navegando por una aplicación nativa. De hecho, se pueden descargar o bien se pueden utilizar desde tu navegador.

Tecnología Progressive Web App

Las aplicaciones webs progresivas eliminan la diferencia existente entre web y aplicación tradicional.

La programación de PWA soporta todos los navegadores móviles, no necesitan una conexión a Internet demasiado fuerte (en algunos casos se pueden navegar de forma offline gracias al cacheado, aunque si requiere conexión para contenidos dinámicos) y tiene unos tiempos de carga más optimizados. Suelen pesar menos que las aplicaciones nativas por lo que ocuparan mucho menos espacio en los dispositivos de los usuarios. Además, permite el envío de las famosas notificaciones push, las cuales favorecerán el engagement con el usuario mediante el envío de información relevante.

Otra de los grandes beneficios que aportan es que son perfectamente indexables por los buscadores por lo que puede suponer un plus al no tener que preocuparte ni siquiera por una estrategia ASO. También resuelven el problema de linkeado entre app y web, que muchas veces es tan complejo como incompatible para una estrategia de App Indexing. 

Conclusiones

 

  • El desarrollo emergente de este tipo de tecnología PWA realmente supone un avance tecnológico que nos hace dudar del tiempo de vida que le queda a las aplicaciones nativas. La tendencia de desarrollo está cambiando, trasladando mayor importancia a la tecnología Progressive Web App. Si técnicamente las PWA ofrecen mejores resultados que las apps tradicionales, y además, tienen funcionalidades que sólo tenían las apps ¿Por qué seguir utilizándo las aplicaciones nativas?
  • Se borra la barrera entre web y aplicación. Se eliminaría la necesidad de separar las estrategias de marketing para cada una de ellas. Ya no existiría los problemas que hemos comentado antes de estrategias de App Indexing o Linkeado entre web y app. La utilización de la web en desktop y la app en dispositivos móviles daba sentido al hecho de contemplar en la estrategia una aplicación nativa y una página web. Con la tecnología PWA esto ya no existiría debido a que su uso se fusiona tanto en móvil como en desktop.