SEO

Black Hat SEO: Qué Es, Técnicas y Riesgos [2026]

Qué es black hat SEO, qué técnicas funcionan en 2026 y cuáles no, cómo detecta Google el spam y qué hacer si te han penalizado. Sin sermones, con datos.

Natan Valencia Actualizado: 6 de abril de 2026
Natan Valencia
Natan Valencia

Consultor SEO técnico y programador. Llevo más de 13 años auditando webs, automatizando análisis con Python y construyendo herramientas para SEO. Escribo sobre lo que funciona de verdad.

Tabla de contenidos

En resumen: El black hat SEO no es ni una varita mágica ni un pecado mortal. Algunas técnicas todavía funcionan, otras llevan años muertas, y Google detecta el grueso del spam con IA sin que nadie tenga que reportarlo. Si tienes un negocio con marca que proteger, el riesgo casi nunca compensa. Si gestionas proyectos desechables, tú mismo. Lo que viene es lo que hay, sin moralizar.

Todo el mundo habla del black hat SEO como si fuera un botón mágico para subir a la primera página, o como si fuera algo ilegal del que hay que alejarse (ni que Google fuese la policía, vamos). He visto proyectos black hat facturar miles de euros al mes hasta que dejaron de hacerlo. Y he auditado webs legítimas que perdieron el 90% del tráfico de un día para otro. La realidad es mucho más gris de lo que te cuentan en cualquiera de los dos bandos.

Llevo más de diez años viendo técnicas que funcionaban hacerse humo de la noche a la mañana, y otras que todo el mundo daba por muertas seguir dando resultados cuando se ejecutan bien. Lo que quiero contarte en este artículo es lo que realmente hay en 2026: qué funciona, qué no, cuánto cuesta, cómo te pilla Google y qué hacer si ya te han pillado.

Y no, no voy a moralizar. Tampoco voy a hacer de vendedor de cursos “gana dinero rápido con black hat”. Mi línea editorial es simple: cuento lo que sé, cada uno decide.


Qué es realmente el black hat SEO

Google define el black hat como “cualquier acción que manipula los resultados de búsqueda”. Si te lo crees al pie de la letra, entonces todo lo que haces para posicionar tu web es black hat, porque todo el SEO es, por definición, intentar influir en los resultados. Pedir un enlace a un amigo, optimizar un título pensando en la keyword, actualizar un artículo para que rankee mejor — todo eso manipula los resultados.

Esa definición no sirve para tomar decisiones. Es demasiado amplia y se contradice a sí misma.

La definición que uso yo, la que funciona en el día a día, es más sencilla: black hat es cualquier técnica que asume un riesgo real de penalización a cambio de resultados más rápidos.

No es una cuestión de ética. Un enlace comprado y un enlace ganado con una buena PR digital pueden dar exactamente el mismo resultado en rankings. La diferencia no está en si Google los aprueba (no aprueba ninguno de los dos, técnicamente), sino en el riesgo que asumes y en lo que pasa si te pillan.

Lo que separa el white hat del black hat no es la moralidad. Es el cálculo de riesgo.

Por eso el término “grey hat” tiene más sentido que ninguno de los otros dos. Casi nadie es 100% white hat (si has pedido un enlace alguna vez, ya no lo eres) y casi nadie es 100% black hat (incluso los más agresivos hacen contenido y SEO on-page). La mayoría de los SEOs profesionales operamos en la zona gris, moviendo la línea según el proyecto, el cliente y el riesgo que está dispuesto a asumir el que paga.

El criterio práctico: si una técnica puede hacerte perder el proyecto entero de un día para otro, es black hat. Si el peor caso es que Google simplemente ignore lo que has hecho, es grey hat. Si está literalmente alineada con las directrices, es white hat — y seguramente tarda más en dar resultados.


Las técnicas que ya no funcionan

Hay mucha gente que sigue pensando que black hat es repetir la keyword 50 veces o dejar comentarios en blogs. Si esa es tu idea, estás en 2008. Estas técnicas están tan quemadas que no funcionan ni aunque las hagas bien. Google las detecta automáticamente desde hace años y lo único que consigues es marcar tu web como spam para los algoritmos.

Vamos a limpiar el terreno rápido, porque hay que entender qué no funciona antes de hablar de lo que sí.

Keyword stuffing

Repetir la palabra clave como el ajo. La técnica más famosa del black hat clásico y también la más muerta. Los algoritmos de Google llevan más de una década detectando la densidad anormal de keywords, y lo hacen sin esfuerzo. Si te pasas de la raya, el artículo se marca como spam y no posiciona. Punto.

Hoy en día repetir la keyword hasta el delirio no solo no ayuda: hace daño. Google entiende el lenguaje natural desde BERT (2019) y MUM (2021). No necesita que le repitas la keyword para saber de qué va tu página. Necesita que le cuentes algo útil.

Article spinning

Coger un artículo y cambiar palabras por sinónimos automáticamente para generar decenas de versiones “únicas”. Funcionaba en la época en la que Google miraba los textos por coincidencia literal. Dejó de funcionar hace mucho más tiempo del que la gente piensa. La IA de Google pilló esto antes de que ChatGPT existiera.

Las redes neuronales de Google entienden el significado, no solo las palabras. Un texto spineado sigue teniendo la misma estructura semántica que el original, y los embeddings lo detectan al instante. El único uso que tenía era para generar texto de relleno en enlaces de tier 2 o tier 3, donde no necesitabas calidad. Hoy ni eso — y con contenido generado por IA a coste cero, el spinning no tiene ningún sentido.

Comentarios dofollow masivos

Dejar tu enlace en los comentarios de miles de blogs con herramientas automatizadas. Este tipo de enlaces tiene un patrón tan evidente (misma fuente de enlace, mismo anchor, volumen desproporcionado, páginas de comentarios con bajísima autoridad) que Google lo ignora directamente. No penaliza porque no necesita: simplemente no cuenta esos enlaces. Estás gastando tiempo y dinero para no conseguir nada.

Comentar en blogs con aportación real sigue teniendo sentido para generar relaciones y a veces algún enlace legítimo. Pero eso ya no es black hat, es network building básico.

Hijacking y scraping

La idea del hijacking es clonar una web y conseguir enlaces hacia la copia para hacerle creer a Google que la copia es la original. Era una técnica con cierto recorrido cuando las señales de antigüedad y propiedad eran débiles. Hoy Google tiene tantas señales históricas sobre un dominio (quién lo enlaza desde cuándo, qué contenido ha tenido, qué rankings ha tenido) que es casi imposible que una copia nueva supere al original.

El scraping puro y duro para generar sitios clónicos tampoco funciona: el Helpful Content Update y las actualizaciones de spam policies (marzo 2024 en adelante) van específicamente contra este tipo de contenido a escala.

Doorway pages

Páginas creadas exclusivamente para rankear por una keyword y redirigir al usuario a otra página. Google las penaliza automáticamente desde el Doorway Pages Update de 2015. Once años después hay gente que sigue intentándolo y sigue sin funcionar. Si haces 300 landings casi idénticas cambiando solo la ciudad para rankear local, estás haciendo doorways aunque no las llames así.

Todas estas técnicas tienen algo en común: generan un patrón detectable a escala. Y cualquier cosa que Google pueda identificar como patrón automático está muerta antes de empezar. El spam masivo barato dejó de funcionar cuando Google dejó de necesitar revisar cosa por cosa.


Las técnicas que todavía se usan

Esta es la parte que la mayoría de blogs de SEO evita escribir. O pasan de puntillas diciendo “no hagas esto”, o se ponen en modo manual de instrucciones glorificando las técnicas. Ninguno de los dos enfoques es útil.

Lo que voy a contarte aquí es lo que la gente de verdad hace en 2026, por qué lo hace y qué riesgo asume. No para que lo copies. Para que entiendas el mercado en el que te mueves.

PBN — redes de blogs privadas

Una red privada de blogs es un conjunto de webs que controlas tú (o un grupo) diseñadas para enlazar a tus proyectos principales. Las PBN bien ejecutadas siguen funcionando. Eso es un hecho, no una opinión. Lo he visto de primera mano y cualquier SEO con experiencia real te dirá lo mismo, aunque algunos te digan lo contrario en público.

El problema de las PBN no es que no funcionen, es que el coste de mantener una red segura ha subido cada año. Hosting diferenciado, whois privados, IPs de rangos distintos, registradores separados, contenido único en cada dominio (ahora con IA es más barato, pero antes era un infierno), patrones de enlaces no agresivos, footprints limpios. Una PBN barata se cae en cuanto el equipo anti-spam de Google se fija en ella. Una PBN bien montada puede durar años.

El problema es que cuando Google encuentra el patrón, suele caer toda la red a la vez. Y con ella, los proyectos que enlaza.

Si quieres entender el tema en profundidad, tengo un artículo completo sobre cómo funcionan las PBN. Pero el resumen ejecutivo es este: funciona, cuesta mucho más de lo que la gente piensa, y el día que caiga, caerá rápido.

Compra-venta de enlaces

El mercado más activo del SEO español. No la parte más grande, que esa es el link building “legítimo” a base de guest posts y PR, pero sí la más activa en el sentido de transacciones diarias. Publisuites, Prensalink, Getlinko y una docena más de plataformas mueven enlaces todos los días.

La pregunta no es si se compran enlaces. Todos sabemos que sí. La pregunta es cómo no te pillan.

Google dice que los enlaces pagados son una violación de sus directrices. En teoría, el penalizado es el que vende, no el que compra. En la práctica, si penalizan al que vende, los enlaces que tenía dejan de contar. Los tienes pero no valen nada. Y si los patrones del que compra son evidentes (todo el mismo tipo de anchor exacto, todo el mismo perfil de webs, todo en la misma ventana de tiempo), el comprador también tiene problemas.

El margen de maniobra existe porque Google no siempre puede distinguir entre “este enlace lo compraron” y “este enlace lo ganaron con un buen contenido”. Si el perfil general es creíble (enlaces variados, anchors naturales, crecimiento orgánico), los enlaces comprados inteligentemente pasan. Si el perfil canta, no.

He escrito un artículo aparte sobre el mercado de compra-venta de enlaces con más detalle sobre cómo funciona. Aquí me limito a decir que, en 2026, es la técnica “gris” más usada con diferencia.

Dominios caducados

Comprar dominios que se han dejado caducar, pero que conservan autoridad y perfil de enlaces, para redirigirlos a tu web principal (301) o para montar PBN encima. Funciona parcialmente.

El punto donde Google cada vez aprieta más es en los cambios bruscos de temática. Si compras un dominio de un antiguo bufete de abogados y lo rediriges a tu web de afiliación de casinos, Google detecta el salto y no te transfiere la autoridad. O peor, la transfiere durante unos meses y luego la corta de golpe cuando tu perfil de enlaces deja de tener sentido contextual.

Cuando el dominio caducado es temáticamente relevante y el redirect tiene sentido narrativo (“esta web antigua ahora forma parte de este proyecto más grande”), todavía transfiere autoridad. Cada vez menos, pero transfiere.

Cloaking

Mostrar una página a los robots de Google y otra distinta al usuario. Históricamente se usaba para posicionar contenido que al usuario no le interesaba (o que no debía ver). Hoy se usa mucho más en afiliación agresiva, gambling, SEM fraudulento y páginas que cambian de contenido según el user-agent.

En SEO orgánico clásico ha perdido sentido porque Google renderiza JavaScript y compara lo que ve el bot con lo que ve el usuario real desde hace años. Si te pillan haciendo cloaking en una web de negocio normal, el baneo es inmediato y casi imposible de revertir.

Hay variantes “light” de cloaking (mostrar variaciones menores según geolocalización, versiones A/B para test, etc.) que Google tolera porque no engañan al usuario final. La línea entre una cosa y otra es fina: si el contenido que recibe el bot es sustancialmente distinto del que recibe el usuario, estás haciendo cloaking.

SEO negativo

Mandar enlaces tóxicos a la competencia para que Google los penalice a ellos. Google lleva años diciendo que no funciona, que sus algoritmos son suficientemente buenos como para ignorar los enlaces basura en lugar de penalizar a la víctima.

La realidad es más compleja. Para webs grandes, antiguas y con buen perfil previo, es cierto — Google ignora el ataque. Para webs pequeñas, nuevas o con perfil ya flojo, un ataque bien diseñado sí puede hundir rankings durante meses. No porque “funcione” en el sentido de activar una penalización manual, sino porque el sistema automático interpreta el súbito aluvión de enlaces basura como un patrón de manipulación del propio sitio.

¿Recomiendo usarlo? No. Aparte de ser basura ética (esta vez sí digo basura ética, porque afecta directamente a otra persona), su eficacia es dudosa y el esfuerzo lo puedes invertir en construir lo tuyo. Pero pretender que no existe o que nunca funciona es mentir.

Contenido generado por IA a escala

La nueva frontera. Con herramientas como ChatGPT, Claude y similares, es trivial generar miles de artículos por poco dinero. La tentación de llenar un sitio con 10.000 páginas temáticas en un mes es real.

Google se ha posicionado claro: el contenido generado por IA no está prohibido per se, pero sí lo está el contenido de baja calidad a escala, independientemente de cómo se haya generado. Las Spam Policies de Google incluyen específicamente “Scaled content abuse” como violación desde marzo de 2024.

En la práctica, el Helpful Content System y SpamBrain pillan los sitios de contenido IA masivo cuando detectan las señales típicas: contenido templatizado, patrones de publicación anormales (5.000 posts en dos semanas), falta de señales E-E-A-T, ratio altísimo de páginas con impresiones cero. He visto casos públicos de sitios que explotaron con 30.000 URLs generadas por IA, rankearon unas semanas, y luego perdieron el 99% del tráfico en una sola actualización.

El contenido IA bien editado y usado como herramienta (research, drafting, edición) funciona perfectamente y es lo que hacemos casi todos ahora. El contenido IA lanzado sin supervisión humana a escala es una bomba de relojería.

Tabla resumen: estado de cada técnica en 2026

Técnica¿Funciona en 2026?RiesgoDetecciónVeredicto
Keyword stuffing❌ NoAltoAutomática instantáneaObsoleta
Article spinning❌ NoAltoAutomática instantáneaObsoleta
Comentarios masivos❌ NoBajo (ignorados)AutomáticaInútil
Doorway pages❌ NoAltoAutomáticaPenalización segura
PBN bien ejecutada✅ SíMedio-AltoManual + algorítmicaFunciona pero cara
Compra de enlaces✅ Sí (con cuidado)MedioManual + algorítmicaLa más usada
Dominios caducados✅ ParcialmenteMedioAlgorítmicaCada vez menos eficaz
Cloaking✅ TemporalmenteMuy altoAutomática + manualBaneo inmediato al caer
SEO negativoDiscutibleBajo (para el atacante)N/AFunciona en webs frágiles
Contenido IA masivo✅ TemporalmenteAltoAlgorítmica (SpamBrain)La nueva batalla

Cómo detecta Google el black hat en 2026

Si no entiendes cómo funciona la detección, no puedes evaluar el riesgo. Y la detección ha cambiado radicalmente en los últimos ocho años. Google ya no necesita que nadie le reporte spam manualmente. SpamBrain hace el trabajo solo, a escala, y de forma continua.

Aquí hay dos conceptos que mucha gente mezcla: penalización manual y penalización algorítmica. Son cosas distintas y se recuperan de forma distinta.

SpamBrain, la IA anti-spam de Google

SpamBrain es el sistema de machine learning de Google para detectar spam. Google lo anunció oficialmente en 2018, pero desde entonces ha tenido varias iteraciones importantes. La más significativa fue la de 2021, cuando pasó de detectar spam individual a detectar redes completas. Desde ese momento, cuando SpamBrain ve un sitio sospechoso, también puede ver a quiénes enlaza ese sitio y cruzar el patrón.

La consecuencia práctica: una PBN con 50 sitios ya no cae sitio por sitio. Cae toda a la vez cuando el sistema identifica el footprint común. Y los sitios que enlaza, si el perfil es evidente, también caen.

SpamBrain se entrena continuamente. Cada actualización introduce nuevas señales: patrones de registro de dominios, patrones de contenido, patrones de enlace, señales de engagement, señales de servidor. Es imposible publicar una lista cerrada de “lo que mira” porque cambia.

Las actualizaciones anti-spam importantes

Esto no es un concepto abstracto. Es una guerra en capas que Google ha ido librando con actualizaciones nombradas.

AñoActualizaciónQué atacaba
2012Penguin 1.0Sobre-optimización de anchors y esquemas de enlaces básicos
2015Doorway Pages UpdatePáginas creadas solo para rankear por una keyword
2016Penguin 4.0 (real-time)Enlaces spam: de penalización global a devaluación por URL
2018SpamBrain (1ª iteración)Spam genérico con machine learning
2021Link Spam Update + SpamBrain v2Enlaces no naturales y redes completas
2022Helpful Content UpdateContenido sin valor, escrito para motores de búsqueda
2023Spam Updates recurrentesIteraciones continuas contra patrones emergentes
2024 (marzo)Core Update + Spam Policies nuevasScaled content abuse, site reputation abuse, expired domain abuse
2024-2026Updates continuos + SpamBrain actualizadoContenido generado por IA a escala, parasite SEO

El Core Update de marzo de 2024 fue un punto de inflexión importante. Google publicó tres nuevas políticas de spam simultáneas: “Scaled content abuse” (contra contenido masivo), “Site reputation abuse” (contra parasite SEO en medios grandes) y “Expired domain abuse” (contra redirects de dominios caducados fuera de tema). Fue de las actualizaciones más duras que recuerdo: webs enteras desaparecieron en horas.

Penalización manual vs. algorítmica

La diferencia importa porque afecta a la recuperación.

Penalización manual: alguien de Google (el Search Quality Team) ha mirado tu web a mano y ha decidido que viola las directrices. Te aparece una notificación en Search Console, sección “Acciones manuales”. Se recupera con una solicitud de reconsideración después de arreglar lo que te marcaron. Es rara: la gente de Google no va a mirar webs pequeñas a mano salvo que alguien las reporte o tengan mucha visibilidad.

Penalización algorítmica: el sistema automático ha decidido que tu web tiene patrones de spam y ha bajado sus rankings. No hay notificación. No hay mensaje en Search Console. Simplemente tu tráfico cae. Se “recupera” cuando limpias el problema y el algoritmo vuelve a evaluar tu sitio en una siguiente iteración — lo cual puede tardar meses, o no llegar nunca si los cambios no son suficientes.

La mayoría de las penalizaciones que veo en auditorías son algorítmicas. El cliente no tiene mensaje en GSC, tiene una caída brutal de tráfico después de un Core Update. Eso casi nunca es “mala suerte”. Es el algoritmo recalibrando lo que considera spam.


Casos reales de penalización

Las penalizaciones no son un concepto teórico. Son webs que de un día para otro dejan de existir en Google. Y cuando dices “dejan de existir”, lo dices en serio: pasan de 10.000 visitas diarias a 100 en 48 horas.

Casos públicos

Los casos públicos se citan tanto en artículos de SEO que a veces pierden impacto. Pero son útiles porque marcaron inflexiones:

J.C. Penney (2011). La cadena de grandes almacenes americana montó un esquema masivo de enlaces de pago que le puso a rankear primera posición para prácticamente cualquier búsqueda de ropa, muebles y electrodomésticos durante la Navidad de 2010. El New York Times publicó una investigación en febrero de 2011 y Google actuó en horas. J.C. Penney pasó de rankear primera a no aparecer en 50 páginas para sus propias keywords principales. Les costó meses recuperar una mínima parte de su visibilidad.

BMW.de (2006). BMW Alemania usaba cloaking (páginas llenas de keywords para el bot, página normal para el usuario) para intentar posicionar mejor. Matt Cutts, entonces jefe del equipo anti-spam de Google, anunció públicamente que habían des-indexado bmw.de. La web desapareció de Google durante unos días, BMW lo arregló y volvió. Pero el mensaje fue claro: ni siquiera las marcas enormes son intocables.

Rap Genius (2013). El sitio de letras de canciones creó un esquema de enlaces donde pagaba a blogueros con menciones en sus redes sociales a cambio de enlaces masivos con anchors exactos. Google lo detectó y los penalizó manualmente. Tardaron varios meses en recuperar parte de su posición después de limpiar el perfil.

Estos casos son de hace más de una década. Los cito porque son los que tenemos documentados públicamente y porque marcan la filosofía de Google: ninguna web es demasiado grande para caer. Lo que sí ha cambiado es el volumen: hoy Google no necesita que un periódico le chive el esquema, lo ve solo.

Lo que he visto yo

En el día a día auditando webs he visto de todo:

  • Una tienda online con 120.000 URLs que cayó el 87% del tráfico en un Core Update. El problema: tenían 80.000 páginas de filtros combinados indexadas (producto × color × talla × marca), contenido duplicado en masa, y un perfil de enlaces con decenas de anchors exactos comprados por temporada. La recuperación parcial tardó ocho meses, y nunca volvieron al nivel anterior.

  • Un blog de nicho que perdió el 90% del tráfico cuando una de sus PBN de apoyo cayó entera. El dueño ni siquiera sabía que le habían enlazado desde esa red (la contrataba vía intermediario). Tres meses después, cuando al final hicimos el análisis completo del perfil de enlaces, se vio el patrón. Recuperación: parcial, tras hacer disavow masivo y esperar.

  • Un proyecto de afiliación “experimental” con contenido IA masivo que pasó de cero a 45.000 visitas al mes en cuatro meses. El quinto mes perdió el 99% en una sola actualización. El dueño lo tenía asumido — el proyecto era desechable — y ya tenía otro preparado.

  • Una empresa de servicios local que perdió visibilidad después de que un competidor les montó un ataque de SEO negativo. 8.000 enlaces basura en tres semanas. Google acabó ignorando la mayoría, pero durante dos meses el tráfico estuvo al 50%. No hubo penalización oficial, pero la turbulencia fue real.

Lo que cuesta de verdad

El coste de una penalización no es solo la pérdida de tráfico directo, aunque esa sea la parte más visible. Cuando una web de negocio pierde visibilidad de golpe:

  • Tráfico: cae entre el 60% y el 99% en cuestión de días.
  • Ingresos: si el negocio dependía del SEO, caen en proporción directa.
  • Marca: empieza a haber reseñas raras, artículos que desaparecen de Google cuando la gente los busca, confusión entre clientes antiguos.
  • Tiempo de recuperación: entre tres meses en casos leves y “nunca” en casos graves. La media de los que he visto es seis a nueve meses para una recuperación parcial.
  • Coste de oportunidad: todo el tiempo y dinero que inviertes en limpiar es tiempo que no inviertes en crecer.

Un negocio con facturación mensual de 50.000€ del SEO puede perder 300.000-450.000€ en los seis meses que tarda una recuperación media. Y eso sin contar despidos, cierres de proyectos paralelos o decisiones estratégicas forzadas por el cash flow.

Coste real medio de una penalización en un negocio con marca 6-9 meses de recuperación parcial, 60-99% de pérdida de tráfico inicial, y nunca recuperas al 100% del punto anterior


Por qué la gente sigue haciéndolo

Si el black hat solo trajera problemas, nadie lo haría. La realidad es que para algunos proyectos, el cálculo coste-beneficio sale rentable. No estoy justificando nada, solo explicando por qué existe el mercado.

Proyectos desechables

Para un proyecto de micronicho de afiliación, la lógica es distinta. El dueño no tiene una marca que proteger, no tiene clientes a los que dar explicaciones, y el tiempo medio de vida del proyecto es de seis a dieciocho meses de todas formas. Si black hat le permite monetizar en seis meses lo que white hat tardaría dos años, y si puede montar otro proyecto al mes siguiente cuando este caiga, el cálculo puede tener sentido.

Es una forma de hacer dinero, no de construir un negocio. Y cada uno decide en qué juego quiere jugar.

Sectores ultra-competitivos

Hay sectores donde sin enlaces no existes. Gambling, forex, criptomonedas, ciertas áreas de salud, seguros, préstamos rápidos. La competencia tiene miles de enlaces comprados y no hay forma de competir “limpio” contra eso en un plazo razonable. El sector entero juega en gris, y el que no lo hace simplemente no aparece.

No es que sea justo. Es lo que hay. Si tu proyecto está en uno de esos sectores, ignorar el contexto es irreal.

El factor tiempo

El white hat puro tarda. Mucho. Una web nueva en un sector medianamente competitivo puede tardar doce o dieciocho meses en rankear bien solo con buen contenido y SEO on-page. Si eres un consultor que necesita cobrar, un negocio que necesita ingresos, o un proyecto con inversores que piden resultados trimestrales, dieciocho meses es una eternidad.

Esa presión temporal es la que mueve a mucha gente hacia lo gris. No lo entiendo como cinismo: lo entiendo como matemática. El tiempo cuesta dinero y a veces no tienes tanto tiempo.

Lo que muchas veces no se calcula

El coste de oportunidad. El dinero que gastas en una PBN segura o en una campaña de compra de enlaces no te sale gratis. Son miles de euros al mes. Si cogieras ese mismo presupuesto y lo invirtieras en contenido realmente útil, en herramientas gratuitas que atrajeran enlaces naturales, en presencia en eventos, en relaciones con periodistas de tu sector, muchas veces el resultado a dieciocho meses sería mejor — y sin riesgo.

La gente que lo sabe y aun así hace black hat no es tonta. Normalmente tiene una razón muy concreta: necesita resultados antes. No es estrategia, es urgencia. Y la urgencia nunca es buen consejero para decisiones a largo plazo.


Grey hat: la zona donde vive la mayoría

Si aceptas la definición práctica del principio (black hat = asumir riesgo real de penalización), entonces casi todo el SEO profesional es grey hat. Y eso incluye técnicas que nadie describiría como “sucias” pero que técnicamente van contra las directrices de Google.

Aquí va una lista incómoda: si has hecho alguna de estas cosas, ya no eres 100% white hat según Google.

  • Pedir un enlace. Google considera cualquier enlace obtenido “mediante un intercambio o solicitud” como un link scheme. En la práctica, es la forma más común de conseguir enlaces en todo el sector.
  • Guest posting con enlaces dofollow. Google ha dicho explícitamente que los guest posts con enlaces optimizados son link schemes, pero la industria entera los sigue usando.
  • Intercambio de enlaces puntual. “Yo te enlazo desde este artículo, tú me enlazas desde este otro.” Técnicamente prohibido, práctica común.
  • Digital PR orientada a enlaces. Diseñar una campaña de relaciones públicas con el objetivo explícito de conseguir enlaces es grey hat desde el punto de vista estricto.
  • Monitorear menciones y pedir que las conviertan en enlaces. Mismo caso: práctica estándar, técnicamente fuera de las directrices.
  • Usar herramientas para identificar páginas de recursos y pedir inclusión. Grey hat.
  • Optimizar sistemáticamente titles y descriptions pensando en CTR más que en honestidad estricta. Grey hat leve.
  • Comprar contenido generado con IA y publicarlo con supervisión humana. Grey hat, tirando a aceptado.

La diferencia entre “contra las directrices” y “penalizable en la práctica” es enorme. Google tolera casi todas estas cosas porque sabe que si fuera estricto, el 95% de la web caería en gris.

El grey hat de bajo riesgo es el que hace la mayoría de profesionales del sector. El grey hat agresivo (PBN, compra masiva, cloaking light) es donde la línea se vuelve peligrosa y donde empieza el “depende de cómo de bien lo hagas”.

La postura editorial de tecnicaseo.com: aquí cuento lo que veo, no lo que me gustaría que fuera. El grey hat existe, funciona en muchos casos, y casi nadie opera al 100% en blanco. Pero mi recomendación para cualquier proyecto con marca que proteger es clara: cuanto más cerca del blanco mejor, y cuando decidas entrar en gris, hazlo sabiendo exactamente qué riesgo asumes.


Qué hacer si te han penalizado

Si estás leyendo esto porque tu web ha desaparecido de Google, respira. Se puede recuperar. Pero no va a ser rápido y no siempre es total. Este es el proceso que sigo cuando me toca limpiar un proyecto.

Paso 1: identificar qué tipo de penalización tienes

Lo primero es saber si la caída es una penalización manual, una algorítmica, o simplemente un ajuste normal del algoritmo.

Entra en Search Console → Seguridad y acciones manuales → Acciones manuales. Si hay algo, te lo dirán con claridad: te muestra el tipo de acción y las URLs afectadas. Si no hay nada, el problema es algorítmico.

Luego mira el Rendimiento en GSC. Busca la fecha exacta del desplome. Cruza esa fecha con el historial de Core Updates y Spam Updates de Google (Search Engine Land mantiene un histórico útil, igual que Moz). Si coincide con un update conocido, ya sabes contra qué peleas.

Paso 2: auditar el perfil de enlaces y de contenido

Si el problema es de enlaces, necesitas Ahrefs, Semrush o la propia herramienta de enlaces de Search Console para ver tu perfil completo. Exporta todo, ordena por dominios referentes y busca patrones: picos de enlaces raros, anchors exactos repetidos, webs que no deberían estar enlazándote (casinos, farmacias, webs en otros idiomas sin sentido), redes de blogs evidentes.

Si el problema es de contenido, el punto de partida es el listado de páginas con caída mayor de clics en GSC. Mira qué tienen en común: ¿son páginas thin?, ¿son generadas en masa?, ¿son doorways disfrazadas de landings locales?, ¿se nota que eran contenido IA sin editar?

La auditoría aquí no es opcional. Es el diagnóstico antes del tratamiento. Si haces cambios sin diagnóstico, gastas esfuerzo en arreglar cosas que no son el problema.

Paso 3: limpiar

Para enlaces tóxicos, tienes el disavow. Lo primero que hay que decir es que la mayoría de la gente lo usa mal. El disavow no se hace por prevención (Google ya ignora la mayoría de enlaces basura por sí mismo). Se hace cuando tienes un patrón claro y evidente de enlaces manipuladores que sí te están afectando.

Si desautorizas enlaces buenos por error, te haces más daño del que arreglas. Mejor tirar a conservador: solo desautoriza lo que tengas seguro que es basura y que forma parte de un patrón.

Para contenido, la limpieza es más brutal: eliminar las páginas thin, des-indexar (noindex) las páginas de bajo valor, consolidar contenido duplicado, reescribir a mano lo que estaba generado en masa. Sí, es mucho trabajo. Sí, es más rápido que esperar.

Paso 4: solicitud de reconsideración (solo para manuales)

Si tienes una penalización manual, después de limpiar tienes que enviar una solicitud de reconsideración a través de Search Console. El formato importa: tienes que explicar qué hiciste mal, qué has hecho para arreglarlo, y qué vas a hacer diferente. Con evidencias (hojas de cálculo de enlaces desautorizados, listas de URLs eliminadas, capturas de los cambios).

Google tarda entre dos y seis semanas en responder. Si es favorable, te levantan la acción. Si no, te dicen qué sigue mal y tienes que volver a limpiar y reenviar.

Las algorítmicas no tienen solicitud de reconsideración. Solo queda limpiar y esperar a la siguiente iteración del algoritmo, que puede tardar semanas o meses.

Paso 5: esperar y seguir construyendo

La parte más dura. Cuando ya has hecho todo lo que podías hacer, solo queda seguir publicando contenido útil, seguir construyendo autoridad de verdad, y esperar. Las recuperaciones algorítmicas suelen llegar en Core Updates posteriores, con un tempo que no controlas.

Durante la espera, el error más común es cambiar de estrategia cada dos semanas porque “no se ve mejora”. Si has hecho el diagnóstico bien, el plan es correcto. Lo que falta es tiempo.

Si la penalización es grave y el negocio no puede aguantar los meses de recuperación, a veces la decisión más racional es arrancar un dominio nuevo limpio en paralelo. No es la solución ideal, pero he visto proyectos donde era la única realista.

Si quieres un punto de partida más sistemático para auditar tu web (penalizada o no), tengo una guía completa sobre auditoría SEO técnica que cubre el proceso desde cero.


Qué pienso después de más de diez años en esto

El black hat funciona a corto plazo. Eso es un hecho, no una opinión. Algunas técnicas bien ejecutadas pueden mantener proyectos rentables durante años. Otras duran semanas. Todas tienen un final, y el final siempre es más duro de lo que se espera cuando se empezó.

Para negocios serios con marca, clientes, empleados y reputación que defender, el riesgo casi nunca compensa. He visto demasiadas empresas perder seis cifras de facturación mensual por jugar a lo gris para ahorrarse un año de trabajo white hat. El ahorro de tiempo nunca paga el coste de la caída.

Para proyectos desechables, micronichos, experimentos o juegos de afiliación puros, las matemáticas son otras. Cada uno hace sus cálculos. No soy quién para juzgar a nadie que decida entrar en ese juego con los ojos abiertos. Lo que sí creo es que muchos entran en ese juego con los ojos cerrados, pensando que el black hat es un atajo cuando en realidad es un camino con sus propios costes, su propio trabajo y su propia especialización.

Mi línea en tecnicaseo.com es la que es: cuento lo que hay, sin moralizar ni glorificar. Pero mis recomendaciones, cuando alguien me pregunta para su proyecto, van siempre hacia lo que construye valor a largo plazo. Porque es lo que he visto funcionar mejor, y porque es lo único que puedo mirar a un cliente a la cara y defender dos años después.

Si crees que tu web tiene un problema

Si has llegado hasta aquí porque sospechas que algo va mal con tu web — una caída de tráfico que no entiendes, una penalización confirmada, o simplemente la sensación de que algo no cuadra — lo primero es un diagnóstico en condiciones.

No hace falta que me contrates para eso. Puedes empezar por la guía de auditoría SEO técnica y hacer el trabajo tú mismo. Si prefieres que le eche un ojo yo, escríbeme y lo miramos. En cualquiera de los dos casos, el primer paso siempre es entender qué está pasando, antes de tocar nada.

Y si tienes experiencia propia con penalizaciones o con técnicas grey hat que te han funcionado (o que te han explotado en la cara), cuéntala en los comentarios. Es uno de los temas donde más vale una experiencia real que diez artículos teóricos — incluido este.

Natan Valencia
Natan Valencia

Consultor SEO técnico y programador. Llevo más de 13 años auditando webs, automatizando análisis con Python y construyendo herramientas para SEO. Escribo sobre lo que funciona de verdad.