Innholdsfortegnelse
Når vi utvikler et nettsted bruker vi ofte JavaScript, ettersom det er ideelt for å lage innovative nettsteder med flere funksjoner på klientsiden. En av de mest brukte teknologiene er AJAX.Gjennom rammer Hva Jquery, Prototype, Mootools og andre, som gjør det mulig å sende forespørsler til serveren, motta resultatet og aktivere lasting av bestemt innhold på siden uten å oppdatere nettet og være helt gjennomsiktig for brukeren.
For øyeblikket viser de fleste nettsider en sterk avhengighet av JavaScript for å lage klientbivirkninger og funksjoner, dette medfører velkjente risikoer når det gjelder SEO, lenkeproblemer eller inkompatibiliteter, tekniske feil, nedlastningshastighet, etc.
Vi vil se noen i denne opplæringen strategier for å utvikle AJAX nettsteder og applikasjoner unngå å ha problemer i SEO -grenen.
Fordeler og ulemper ved bruk av AJAX
Fordelene når det gjelder brukeropplevelse er klare: raske sider, mindre overhead for serveren som bare behandler bestillingen og returnerer innholdet som er nødvendig for brukeren. Mange nye generasjoner webfunksjoner gjøres ikke lett uten bruk av JavaScript eller Jquery siden det gir brukeren behov for å klikke på et element på nettet og for nettleseren å ikke oppdatere hele siden, men bare en blokk med innhold og til og med vise forskjellig informasjon for forskjellige brukere.
Ulempen er at det returnerte innholdet kanskje ikke er synlig for søkemotorer, og boten vil ofte ikke analysere Jquery- eller Ajax -koden. Ett problem er at innholdet på en side bare er synlig for nettleseren, men ikke på serveren, kan robotenes måte å spore få dem til å ikke se noe innhold eller at noen lenker mislykkes siden roboten ikke kan forstå JavaScript som er veldig komplekst .
Google har kontinuerlig utviklet Ajax og Javascript -gjennomsøkingsfunksjonene til robotene sine, mens Bing og Yahoo ikke har utviklet seg mye.
Selv søkemotorer kan ikke nøyaktig representere det mest relevante innholdet for et søk, så overforbruk av denne teknologien kan føre til dårlig posisjonering i søkeresultatene.
Eksempler på HTML -elementer og blokker som forbedrer SEO
Hvis vi trenger å opprette en blokk, la oss bruke semantiske navn på klassene, det vil si med en mening som beskriver innholdet:
Eksempel på en blokk som viser noe innhold Det ville være bedre å gi en mer semantisk sans for hver blokk med html -kode, slik at robotene kan forstå hvilket innhold de vil vise: Strukturen er tydelig å spore selv om innholdet ikke er generert i HTML -koden. Siden semantisk markering inneholder søkeord, er det viktig å bruke passende HTML -tagger for innholdet, når vi er i tvil om vi kan konsultere W3school Html -manualen.
Som bestilte eller uordnede lister, er et formål med definisjonslister å vise listen over målrettet innhold, som i tilfellet ovenfor, kan det være nyheter eller en liste over produkter. Dette gir mulighet for mer søkeordtetthet, mindre kodeord.
En av de viktigste aspektene er at innholdet som Javascript genererer for brukeren er det samme innholdet som er nøyaktig det samme som det som vises for søkemotorer eller søkroboter.
Google indikerer som en mulig løsning at hvis nettstedet vårt inneholder teknologier som søkemotorer ikke kan få tilgang til eller ikke kan tolke, for eksempel JavaScript eller Ajax, må vi bruke beskrivende tekst eller bokmerker slik at disse elementene kan vise hva innholdet som samsvarer. Vil bli vist og dermed forbedre tilgjengeligheten til nettstedet. Mange brukere bruker mobile enheter, ikke-standardiserte nettlesere, utdatert programvare og trege tilkoblinger, slik at de kan ha feil når de ser på innhold eller bruker noen funksjoner.
Lenker og parameter etter URL
Google foretrekker å bruke hashbang som en parameter i en url, fordi det på denne måten vil være lettere for deg å tolke koblingene dine når vi sender en hastabang til nettstedet som en parameter.
Et mye brukt eksempel er på Twitter -nettstedet. Google bruker den til å beholde og be om innholdet på den statiske siden. For å vise hva de omskrevne nettadressene inneholder, her er noen eksempler:
Denne nettadressen generert av noen forespørsler er bedre og mer semantisk SEO
www.miweb.com/#!madrid/productos
Disse to nettadressene er vanskeligere for roboter å forstå, men uten tvil forbedrer den siste semantikken noe.
www, miweb, com /? tmp = madrid / products
www.miweb.com/?ciudad=madrid&seccion=productos
Så lenge vi kan Semantisk SEO for generert innhold og vise det samme innholdet som en bruker ville se i søkemotorer, er dette ikke et stort problem.
Skyv ut navigasjonslinjer og faner
I tilfelle av å ha innholdet distribuert i faner, der innholdet endres ved hjelp av jquery eller et annet rammeverk avhengig av kategorien vi plasserer oss i, må det være en uavhengig nettadresse for hver fane, når brukeren klikker på en fane, kan en forespørsel også bli gjort til serveren for å generere helt nytt innhold. Strukturen til hver lenke kan være omtrent som:
www.miweb.com?tab= salg
www.miwebe.com/?tab=clientes
www.miweb.com/?tab=productos
Trikset med fanene er produsert med CSS og Javascript, serveren returnerer innholdet i alle fanene med forespørselen om første side. Når brukeren klikker på en fane, får klassene som er definert i CSS nettleseren til å skjule innholdet som er knyttet til en fane og bare vise innholdet relatert til den klikkede fanen, mens de andre er skjult, men de er i koden dette Det er tillatt , så det er godt å gi strukturen en semantisk sans.
Det er også veldig viktig å ikke tillate gjennomsøking av Javascript- eller CSS -filer i robots.txt på nettstedet vårt, da det kan skade posisjonering og indeksering av innholdet ditt og kan føre til mislykket gjennomsøkingsstatistikk.
En av retningslinjene for Googles nettredaktør Det står spesifikt at ikke disse filene skal spores, men verken å blokkere eller skjule dem for roboter.
Googles verktøy for nettredaktører for å verifisere og analysere gjennomsøking
Googles verktøy for nettredaktører gir oss muligheten til å informere google ved å bekrefte eierskapet til nettstedet vårt. Logg deg på med Google- eller Gmail -kontoen din, så kan vi bekrefte nettstedet vårt.
Det tar omtrent to uker før roboten vises korrekt i Google Søk.
Det er ingen enkel måte å sikre at alt fungerer, men det er noen verktøy som hjelper deg å se hva som skjer. Det beste er å bruke Utforsk som Googlebot -verktøyet, som viser oss nøyaktig hva Google ser når den gjennomsøker nettstedet. Du får tilgang til Googles verktøy for nettredaktører i Diagnostikk.
Ved å bruke Googles verktøy for Webmasters Tools kan vi sjekke de indekserte koblingene og korrigere eller eliminere disse koblingene slik at nettstedet ditt er optimalisert for søkemotorer og har lenker uten fare for å bli straffet som hjelper deg med å forbedre SEO, blant andre funksjoner.Likte og hjalp du denne opplæringen?Du kan belønne forfatteren ved å trykke på denne knappen for å gi ham et positivt poeng