SEOptimer is a free SEO Audit Tool that will perform a detailed SEO Analysis across 100 website data points, and provide clear and actionable recommendations for steps you can take to improve your online presence and ultimately rank better in Search Engine Results. SEOptimer is ideal for website owners, website designers and digital agencies who want to improve their own sites or theirs of their clients.
Si un sitio no es seguro, esta es una de las primeras cosas que se pueden implementar. Hay que tener en cuenta que es necesario gestionar bien el proceso de migracion, aunque apareceran contratiempos no son tan comunes como lo eran antes, y no tienden a durar mucho tiempo, si no hay muchos cambios de URL y las redirecciones se implementan correctamente.
Para que un analisis de palabras clave sea de calidad, lo primero que debemos hacer es una “lluvia de ideas o brainstorming”, antes de empezar a buscar y agrupar las distintas palabras clave que iran apareciendo en las distintas herramientas de sugerencias de palabras clave que utilizaremos. La idea es enfocarse en la forma en que el usuario o cliente potencial de nuestro producto lo buscaria en los distintos motores de busqueda existentes. Esto nos permitira obtener un gran volumen de palabras relacionadas a la marca o producto que necesitamos promocionar. Una vez lista la seleccion de palabras clave, podemos seguir aumentando su volumen obteniendo ideas de las herramientas mas utilizadas como Google Keyword Planner.
Esta actualizacion puede llevar varios minutos dependiendo de los enlaces que tenga tu cuenta. Si quieres puedes pulsar el boton “Run in Background” y asi puedes seguir haciendo los siguientes pasos mientras se actualiza todo. Una vez terminada la conexion Semrush volvera a hacer una actualizacion de todos los enlaces y mostrara (si estas conectado a la herramienta) la pantalla de fin de auditoria.
Al suscribirte a este curso gratuito aprenderas como hay que analizar todas las paginas de una web, que herramientas SEO utilizar para saber el numero de URLs totales y rastreables por los buscadores, asi como aquellas que ayudan a identificar las paginas indexables de una web, las que estan indexadas y las que no, y los motivos que estan originando esos bloqueos.

El objetivo es detectar los posibles problemas que provocan que dicho sitio web no cuente con un posicionamiento optimo, tales como ausencia o falta de relevancia en los metadatos, SPAM dentro del contenido, problemas de configuracion y rendimiento de los buscadores, contenido duplicado u oculto, fallos en la arquitectura de la navegacion, dificultades para los buscadores en cuanto a la accesibilidad, enlaces perjudiciales...


De acuerdo con esta auditoria de 30 minutos y claro que es un tiempo muy corto pero permite determinar los puntos mas relevantes para lograr un adecuado posicionamiento, lo otro es que se lleven a cabo los ajustes recomendados que con total seguridad tomaran varios dias y que se vuelve un proceso constante gracias a los constantes cambios de Google y su algoritmo.

Etiquetas Title y Meta Description: es fundamental que todos los contenidos de nuestra web disponga de estos contenidos del codigo cumplimentados de manera correcta y en el que se incluyan las palabras claves que se han definido para cada una de las pagina de nuestra web. En el caso de los title tienen que tener un maximo de 65 caracteres y las meta description no ser superiores a 156 -158 caracteres, aunque esto puede variar dependiendo del buscador.


Las redirecciones 301 las haras a traves del archivo .htaccess que debes tener en la carpeta principal de tu dominio. Con las redirecciones haces que un error 404 pase a ser un contenido y una visita no perdida. Ademas los 301 mandan parte de la autoridad y posicionamiento de la URL original a la URL de destino. Te pueden servir para redireccionar contenidos antiguos que ya no te interesan o no posicionan a unos nuevos mas optimizados, frescos y potentes. Si la auditoria es interna tambien debes mirar que redirecciones ya estan hechas, a ver si son correctas.
De acuerdo con lo anterior, "la vieja formula" de hacer cosas diferentes, servir a muchos segmentos de mercado -o no tenerlos bien definidos- y tener un enfoque abierto, ya dejo de funcionar. El futuro sera para los que hacen una sola cosa diferente del resto, sirven a pocos segmentos del mercado y tienen un enfoque definido. Bajo esta perspectiva, el reto se convierte en escoger la direccion estrategica de mercadotecnia donde: 1) exista coherencia con el mercado y las necesidades de los clientes; 2) se tenga futuro; 3) se dominen las habilidades distintivas; y 4) exista poca competencia. Una vez hecho esto, se debe tener una absoluta obsesion alrededor del esfuerzo competitivo y lo que va a distinguir a la empresa.
Es importante sabes que deben coincidir con el contenido que esta siendo publicado. Si simplemente utilizas hashtags que tienen un gran volumen de busquedas en las redes sociales, sin que estas se relacionen con tu publicacion, el publico puede interpretar que estas solo buscando mas visualizaciones para tu publicaciones, sin que te importe las preocupaciones y dudas de la persona. Eso puede terminar alejandote de tu publico.
DeepCrawl, ganadora del premio al mejor software de SEO de los European Search Awards, es una herramienta muy eficaz para analizar la arquitectura de un sitio web y detectar posibles problemas tecnicos. Se trata de un rastreador de portales muy completo que ayuda a mejorar el rendimiento respecto al posicionamiento en los buscadores, ya que permite hacer un sitio web mas accesible y efectivo.
Cuando tengamos nuestra lista, iremos al Google Keyword Planner. Podemos acceder a esta herramienta por medio de Google Adwords o a traves del buscador. Una vez alli,  hacemos clic en la pestaña Herramientas y seleccionamos la opcion de Planificador de palabras clave. Despues, abrimos el archivo de texto donde tenemos nuestra lista de ideas, las copiamos y las pegamos en la primera casilla. En Keyword Planner tenemos la opcion de segmentar la busqueda segun el idioma o la ubicacion.  Tambien podemos  usar filtros que ayudan a determinar si una palabra clave es popular o no, segun un promedio de busquedas mensuales.  Para nuestro ejemplo, dejaremos libres las casillas y haremos clic en el boton Obtener ideas. Luego, hacemos clic directamente en la pestaña Ideas para palabras clave. En esta pagina encontraremos las ideas que obtuvimos del brainstorming y diferentes columnas con informacion. Podemos saber el promedio de busquedas mensuales de una palabra clave en Google, en los ultimos 12 meses.  Las demas columnas como Competencia, Puja sugerida o Porcentaje de impresiones estan dirigidas a las campañas en AdWords. Si bajamos un poco, encontraremos las palabras clave que Keyword Planner sugiere segun su relevancia. Los datos complementaran las ideas que tuvimos anteriormente. Es importante recolectar la informacion en un solo lugar. Para esto, hacemos clic en el boton Descargar y elegimos  la opcion CSV para Excel. Luego, copiamos la informacion de las columnas keywords (palabras clave) y average monthly searches (busquedas mensuales promedio) del documento y la pegamos en un nuevo archivo de Google Spreadsheet.
Tambien debe ser analizado si el nivel de enlaces internos es el adecuado o es un aspecto en el que se deben poner en marcha mejoras. Cuanto mejor enlazadas esten las URLs de un sitio web entre si mismas, mejor sera la tasa de rebote y el tiempo de permanencia medio en cada una de ellas. Search Console es una herramienta que permite descubrir que paginas se estan enlazando de manera mas intensa y cuales menos.

Solicita un informe de empresa en einforma: si tus principales competidores son sociedades, puedes pedir un informe de empresa que te permita conocer sus ventas, su estructura financiera, quienes ocupan su cargos directivos y posibles vinculaciones con otras sociedades. Para conseguir el nombre de la sociedad tal vez te haga falta consumir en tu competencia y pedir una factura. Puedes pedir tus primeros informes gratis gracias a nuestro patrocinador einforma.


Contenido para la web: tal y como hemos hablado en otro post, el contenido duplicado es algo que Google penaliza muy duramente, por ello, es conveniente realizar un analisis exhaustivo de todo el contenido de la web con el fin de poder prevenir este tipo de contenido. Es fundamental que el contenido que se ofrezca en nuestra web sea un contenido fresco y actualizado, que este relacionado con la actividad o servicios que se ofrecen en la web y que genere interes al usuario.

El primer paso es descargar cualquiera de estas dos herramientas y hacer un crawl en la pagina que deseas analizar. En esta guia utilice Screaming Frog como ejemplo. Recomiendo que exportes el analisis a un Excel para facilitar la gestion. Te explicare que cosas debes analizar con Screaming Frog y te dare recursos para que sepas como arreglar los errores mas frecuentes.
Esto, que a priori puede parece un problema menor, en realidad se convierte en un problema mayor, ya que, al no tener unas palabras clave específicas y bien trabajadas,  los buscadores entienen que las palabras clave son aquellas que mas se repiten y que normalmente son "que", "para", "y", "las", "los", y un largo etcetera de preposiciones y  artículos.
×