Mediante javascript se puede modificar el orden de la carga de los ficheros en el DOM, de este modo si la web esta implementada con un framework que haga la precarga del HTML mediante JS se puede proveer a las arañas o crawlers inicialmente el contenido con HTML y posteriormente cargas los ficheros que no aportan valor al posicionamiento en buscadores.

Otra cosa que descubrio es que los clientes de El Fogon de Santander valoraban muy bien el servicio recibido. Sobre todo la simpatia y atencion de los camareros. En su restaurante El hilo de Ariadna, no es que recibiera quejas sobre sus camareros, simplemente pasaban desapercibidos. Por eso El hilo de Ariadna decidio ofrecer una formacion a sus camareros para que mejorasen la forma en la que atendian a los clientes.

Esta completa herramienta tambien te permite elegir entre varios idiomas y lugares. Ademas te ofrece una lista de palabras clave con informacion detallada, como el volumen de busqueda, el costo por clic, el nivel de competencia en publicidad, la dificultad para posicionamiento SEO, los competidores principales y hasta el numero de shares en las redes sociales.


Primero que todo, ¿que es el volumen de busqueda? El volumen de busqueda de cada palabra clave nos permite identificar un promedio de cuantas veces se ingresa esa palabra en un buscador. Como ya sabemos, las palabras clave son las busquedas que ingresan nuestros potenciales clientes en el buscador de Google o cualquiera de sus asociados de busqueda. Por lo tanto, para atraer a nuestro Buyer Persona, debemos predecir la palabra o frase que ingresara en el buscador. Para saber eso, debes hacer una investigacion de cada palabra para saber si te sirve o no. En definitiva, si nadie la busca o tiene menos de 10 busquedas mensuales, seria una palabra que no te conviene intentar posicionar, ya que nadie o casi nadie realiza busquedas usando esos terminos.
Si el enlace debe ser eliminado, entonces, en la seccion de Auditoria deberemos indicar que este enlace debe ser borrado. Para ello pincharemos en delete y elejiremos si queremos mandar a borrar el enlace o todos los enlaces del dominio a la seccion “Remove”. Si seguimos las directivas de Google, Google pide que primero se haga un intento de borrado de los enlaces via solicitud, y si no es posible borrarlo entonces utilicemos la herramienta disavow. Por esta razon, primero debemos mandar los enlaces a Remove. Asi, al pinchar en Remove, lo que hara Semrush sera pasarlo a la siguiente pestaña de la auditoria: “Remove”.

La produccion de contenidos relevante es hecha con base en las personas, en sus dolencias y problemas; no pensando en los robots de los buscadores. Recuerda que si haces un contenido que agrega valor, responde dudas y resuelve problemas, estaras automaticamente bien en las prioridades del lector y, creelo, Google tambien considera todo eso a la hora de ordenar los resultados de las busquedas.
El primer paso es descargar cualquiera de estas dos herramientas y hacer un crawl en la pagina que deseas analizar. En esta guia utilice Screaming Frog como ejemplo. Recomiendo que exportes el analisis a un Excel para facilitar la gestion. Te explicare que cosas debes analizar con Screaming Frog y te dare recursos para que sepas como arreglar los errores mas frecuentes.
Puesto que el grupo de ingresos elevados constituye un pequeño porcentaje del mercado, las ventas estaran limitadas. Por el contrario, los grupos de niveles de ingreso bajo tienden a interesarse mas en el precio que en el servicio. Puesto que ellos constituyen una porcion grande del mercado, aquellas empresas que habran de dirigirse a ese grupo tendran que generar un gran volumen. Si un segmento particular de un mercado socioeconomico no esta siendo atendido, es posible que hubiere necesidad de una nueva empresa que lo haga, suponiendo que se pueda generar suficiente demanda.
Tan importantes son los enlaces internos como los externos. Esta seccion te ayuda a repasar lo mas destacable de cada uno de los dos mundos. Te remite a herramientas como ahrefs o screamfrog y te indica exactamente que debes mirar e incluir en el informe. Yo añadiria mas detalles sobre el anchor text y la distribucion de los enlaces en la red: Muchos enlaces de directorios pueden ser una señal clara de lo bien o mal que se estan haciendo las cosas.
Visualizacion del codigo fuente para leer metatags y titulos h1 y h2. El plugin de firefox, firebug, es una herramienta fundamental para esta funcion. En la propia pagina podemos ver cuales son las palabras que forman parte del menu (que tenderan a ser mas importantes) y en el codigo podremos mirar los metatags y los que forman parte de elementos h1 (mas importante), h2 (subtitulo), h3, h4, etc.
Las palabras claves suelen ser palabras o frases cortas que logren condensar los temas mas importantes que se presentan en el articulo. Para escoger las palabras claves, simplemente se debe pensar en cuales palabras utilizaria un usuario para encontrar su articulo a traves de un buscador. Estas palabras deben ser acorde a la jerga que se maneje en el entorno profesional del tema y deben ser en un lenguaje natural y de frecuente uso, por lo tanto, no se deben usar palabras “nuevas” (palabras propuestas para describir nuevos algoritmos, productos, teorias, etc).
Normalmente cuando estas midiendo la visibilidad y palabras claves posicionadas, las empresas no llevan un control adecuado de que fue lo que modificaron en sus sitios. Por lo que es imperativo, para el auditor, decirle a la empresa que se requiere que todos los cambios esten documentados a partir de ese momento y si es posible documentar lo que se hizo en el pasado, de ser posible.
Importante es tambien descubrir si en la web analizada se producen errores 404, lo que se conoce como paginas no encontradas. Si se ha llevado una migracion con anterioridad, es muy probable que estos fallos aparezcan en dicha web, lo que influye muy negativamente en el posicionamiento en los buscadores. Hay que hacer un listado de todos ellos y redireccionarlos a otros contenidos o proceder a su correccion.
Si tu pagina web no esta bien indexada en Google o en cualquier otro buscador, no existe, con lo que no te llegaran visitas desde ellos. Existen varias formas de ver la indexacion de una pagina web, aunque quizas la mas segura sea ver las URL que tu sitemap.xml envia a los buscadores. Para ello hay que utilizar Google Webmaster Tools, la mejor manera de saber "que piensa" Google de nuestra web. Tambien puedes averiguarlo empleando Search Engine Spider Simulation.
Contenido para la web: tal y como hemos hablado en otro post, el contenido duplicado es algo que Google penaliza muy duramente, por ello, es conveniente realizar un analisis exhaustivo de todo el contenido de la web con el fin de poder prevenir este tipo de contenido. Es fundamental que el contenido que se ofrezca en nuestra web sea un contenido fresco y actualizado, que este relacionado con la actividad o servicios que se ofrecen en la web y que genere interes al usuario.
Importante es tambien descubrir si en la web analizada se producen errores 404, lo que se conoce como paginas no encontradas. Si se ha llevado una migracion con anterioridad, es muy probable que estos fallos aparezcan en dicha web, lo que influye muy negativamente en el posicionamiento en los buscadores. Hay que hacer un listado de todos ellos y redireccionarlos a otros contenidos o proceder a su correccion.
El archivo Robots.txt es super-importante porque es con el que puedes bloquear el acceso a Google de una URL, todo un directorio o un tipo de archivos de tu web. Asi evitaras que accedan a contenidos privados, que salgan contenidos duplicados, y puedes mejorar la velocidad de rastreo de tu pagina. En Search Console tienes un probador de Robots.txt si te estas familiarizando todavia con el.
Lamentablemente solo nos acordamos de la competencia cuando vamos a emprender un negocio nuevo, o cuando vemos los exitos de otros desde un prisma de envidia. Lamentablemente la poca perspectiva, estrategia y planificacion hace que luego nos preguntemos ¿Por que ellos han conseguido ese logro? ¿Ha sido suerte? ¿Como lo han hecho sin que me diera ni cuenta?
Probablemente antes de empezar a realizar cambios y generar contenidos, ( originales y bien optimizados, enriquecidos, con elementos graficos, videos …. , vaya como a Google le gusta), deberemos primero saber el estado en que se encuentra nuestro proyecto web, para sacarles el maximo partido y dirigir bien nuestros esfuerzos, analizar primero y actuar despues, planificando unos objetivos claros respecto a los reales de una empresa o proyecto.
Una longitud de Url demasiado grande no es beneficios para el posicionamiento en los motores de busqueda. Puedes ver este Estudio de Backlinko donde demuestra como la generacion de URL's cortas, separadas por guiones y que contengan las palabras clave de la entidad que se quiera posicionar son una buena estrategia para que los buscadores rastreen, puedan indexar y posteriormente rankear los contenidos.
Se trata de empresas que operan en el mismo mercado que el tuyo y que tienen como foco a tus mismos clientes, pero que a la vez ofrecen productos distintos. Por ejemplo, imagina que tienes una tienda de helados de frutas; la competencia directa seran las otras tiendas de helados de frutas que operen alli mismo; en cambio, la competencia indirecta seran las tiendas de zumos, refrescos u otros productos similares. En este caso, la idea no es apropiarse definitivamente de estos clientes, sino hacerles ver que, ademas de los productos de otras marcas, tambien puede consumir tu producto.
Despues de utilizar todas las herramientas, debemos filtrar las palabras repetidas. Regresamos al spreadsheet donde tenemos nuestro listado de palabras clave y creamos una nueva columna que llamaremos palabras clave filtradas. Luego, bloqueamos la fila con los datos de palabras clave y organizamos la informacion de la A a la Z. De esta forma, las palabras repetidas quedaran juntas. Despues, en una casilla de la columna palabras clave filtradas, escribimos la formula unique, seleccionamos todos los datos que tenemos en la columna de palabras clave y presionamos enter. Una vez hecho este paso, copiamos todos los datos que filtramos y regresamos al Keyword Planner. Esta vez, vamos a la seccion Obtener datos y tendencias del volumen de busquedas y pegamos la informacion. Nuevamente, Keyword Planner nos dirigira a una pagina con datos de los terminos que buscamos. Al igual que el informe anterior, descargamos la informacion en formato CSV.  Luego, abrimos el archivo y copiamos las columnas keywords (palabras clave) y average monthly searches (busquedas mensuales promedio) y las pegamos en un nuevo spreadsheet.
En Posicionamiento Web Systems te mostraremos la segunda parte del post sobre como usar las palabras clave en su estrategia de marketing, ya que entendemos que hay distintas maneras de utilizarlas, ya hablamos sobre la optimizacion de la Web y el contenido, asi como las redes sociales, todo esto como parte de tu campaña de marketing online hoy hablaremos sobre el guest posting y el uso online de keywords, entre otras cosas.
Tambien hay que medir el Web Performance Optimization (WPO) que determina la velocidad en la navegacion del sitio web en cuestion. Los buscadores suelen penalizar a aquellas paginas que tardan una eternidad en cargarse, y por lo general la respuesta de los usuarios suele ser muy negativa. En caso de que no sea bueno, habra que emplear herramientas como Gtmetrix o Google Page Speed para mejorarlo.
Precio, colocacion y disposicion de productos, trafico de clientes, que tipo de perfil tienen, reputacion, como les venden, sistema de fidelizacion, que ofertas hacen, dimension del local, decoracion, imagen de marca, horarios de apertura, antigüedad de los empleados, turnos que tienen, servicios y atencion al cliente, proveedores, rotacion de existencias, capacidad economica,…cualquier cosa que tu veas que puede ayudarte a hacer un analisis de la competencia y poder compararlo con tu negocio
HTTP / 2 es una mejora del protocolo HTTP que se basa en gran medida en el propio protocolo SPDY. Este protocolo funciona sobre TCP/IP. Optimiza el rendimiento en las comunicaciones entre cliente y servidor en mas de un 60%.El protocolo incorporta mejoras en la comunicacion entre navegadores y servidores, reduciendo el tiempo de renderizado y por consiguiente optimizando el performance de la web.
Seguramente estas pensando que hacer un analisis de la competencia de un restaurante puede ser interesante. Sin embargo no le terminas de ver la utilidad. Mucha gente duda de la fiabilidad de este tipo de analisis porque nadie va abriendo su empresa a los competidores. Sin embargo el metodo SACE permite realizar el analisis de la competencia de un restaurante sobre la percepcion de los clientes. Y en definitiva esta es la opinion mas importante y valida que puedas utilizar.
El Sitemap le dice a los buscadores que URLs tienes y se mantiene actualizado para que no les falte ninguna. Con los gestores de contenidos lo sueles tener automatizado si tu dominio es simple y solo usa una instalacion. Con otros sistemas puedes crear con herramientas como Sitemap-xml.com. Debes analizar si el dominio que estas examinando tiene los ultimos contenidos y si se actualiza correctamente. Si es una auditoria interna deberias darle la direccion de tu sitemap a Google Search Console.
En la mayor parte de los casos lo recomendable es que evites las Head-term keywords y las Navigational-keywords, ya que suelen estar tan competidas que no te va a compensar el esfuerzo y tiempo que vas a tener que invertir, y en muchos casos no estan orientadas a ventas (a menudo los usuarios que realizan esas busquedas no tienen intencion de comprar o contratar, sino tan solo de consultar informacion).
Por ejemplo, si tu anuncio genero 5 mil impresiones, de las cuales 100 visitas llegaron a tu sitio y 3 terminaron generando utilidades por $300, entonces cada visita de esa keyword vale $3 para tu negocio. Esas 5 mil impresiones en 24 horas podrian generar un rango de clics de 18-36% si tu web aparece en primer lugar, lo que indica que de 900 a 1800 visitas diarias, a un valor de $3 por visita, o 1 a 2 millones de dolares por año!. Con razon a las empresas les encanta el marketing en buscadores!
Esta medida esta relacionada con el performance en el sentido de minimizar la carga de elementos redundantes o contenidos que se pueden simplificar a la hora de generar el layout mediante HTML, carga de ficheros JS, etc. El objetivo es simplicar la web de manera que sea lo mas libiana posible.Aqui tienes un ejemplo de codigo para reducir elementos en el DOM
El contenido puede resultar determinante para el exito de un negocio. La digitalizacion de usuarios y clientes no solo implica que cada vez realicen mas transacciones online, sino tambien que son mas maduros. Y a la hora de hacer sus compras necesitan contenido en muy distintas formas (articulos, documentos, graficos, videos, etc.) para evaluar diferentes alternativas antes de tomar su decision final.
×