Hoppa till innehåll
Vivotiv

Hur vår webbplatsskanning fungerar

Senast uppdaterad april 2026

Sex analysspår, en rapport

Vår skanning kombinerar sex kompletterande analysspår för att ge er en fullständig bild av er webbplats hälsa. Varje spår är specialbyggt för specifika typer av kontroller, och tillsammans täcker de prestanda, SEO, tillgänglighet, förtroende och säkerhet, webbplatskvalitet och AI-beredskap.

Hela skanningen körs i bakgrunden och tar vanligtvis 15 till 20 sekunder.

Lighthouse: prestanda, SEO och bästa praxis

Lighthouse är ett open source-verktyg utvecklat av Google. Det är samma motor som driver granskningarna i Chrome DevTools och Googles PageSpeed Insights.

Vi använder Lighthouse för att mäta:

  • Core Web Vitals inklusive Largest Contentful Paint (LCP), Total Blocking Time (TBT) och Cumulative Layout Shift (CLS)
  • Laddningsprestanda inklusive First Contentful Paint, Speed Index och Time to First Byte
  • SEO-grunder inklusive metataggar, canonical-URL:er, viewport-konfiguration och crawlbarhet
  • Bästa praxis inklusive HTTPS-användning, säkra JavaScript-mönster och modern API-användning

Lighthouse används brett som branschstandard för att mäta webbkvalitet. Vissa Lighthouse-mätvärden, särskilt Core Web Vitals, överlappar med Googles sidupplevelsesignaler som används vid sökranking.

axe-core: tillgänglighetstestning

axe-core utvecklas av Deque Systems och är en av de mest använda testmotorerna för tillgänglighet. Det är integrerat i verktyg som Chrome DevTools och används av många tillgänglighetsgranskningsplattformar.

Vi kör axe-core med Playwright, ett ramverk för webbläsarautomatisering, vilket gör att vi kan testa er webbplats i en riktig webbläsarmiljö istället för mot statisk HTML. Det är viktigt eftersom många tillgänglighetsproblem bara uppstår efter att JavaScript har renderat sidan.

Vi testar mot både desktop- och mobilvyer och kontrollerar alla WCAG 2.1 A- och AA-regler. Skanningen rapporterar:

  • Överträdelser kategoriserade efter allvarlighetsgrad (kritisk, allvarlig, måttlig, mindre)
  • Ofullständiga fynd som kräver manuell verifiering
  • Antalet påverkade element per överträdelse

axe-core används av organisationer som Microsoft och Google, och är utformat för att minimera falska positiva resultat. När verktyget rapporterar en överträdelse är det med stor sannolikhet ett faktiskt problem.

HTTP- och TLS-headeranalys

Detta spår inspekterar er servers svarsheaders och SSL/TLS-konfiguration. Det kräver inte att sidan laddas i en webbläsare, så det körs parallellt med de andra spåren.

Vi kontrollerar:

  • Content Security Policy (CSP) kvalitet och om alltför tillåtande policyer (som unsafe-inline eller unsafe-eval) förekommer
  • HSTS (HTTP Strict Transport Security) konfiguration inklusive max-age-värde och förekomst av includeSubDomains
  • Säkerhetsheaders inklusive X-Frame-Options, X-Content-Type-Options, Referrer-Policy och Permissions-Policy
  • Serverexponerings-headers som kan avslöja teknologiversioner för potentiella angripare
  • SSL/TLS-certifikats giltighet och förtroendekedjas status

Dessa headers är ert första försvarslinje mot vanliga webbattacker. Saknade eller felkonfigurerade headers lämnar er webbplats och era besökare exponerade.

Externa säkerhetskontroller

Vi korsrefererar er webbplats mot externa säkerhetsdatabaser för att upptäcka hot som intern analys inte kan fånga:

  • Google Web Risk kontrollerar om er URL har flaggats för skadlig programvara, social manipulering eller oönskad programvara
  • MDN Observatory betygsätter er webbplats säkerhetskonfiguration mot Mozillas rekommenderade standarder

Dessa kontroller körs via externa API:er och kompletterar headeranalysen med ett utifrån-in-perspektiv på er webbplats säkerhet.

Länkkontroll

Vi genomsöker länkarna på er sida och verifierar att de fungerar korrekt. Trasiga länkar skadar både användarupplevelsen och SEO, eftersom sökmotorer tolkar döda länkar som ett tecken på bristande underhåll. Skanningen rapporterar antalet trasiga länkar och vilka URL:er som berörs.

AI-beredskapsanalys

AI-drivna sökmotorer (ChatGPT, Perplexity, Gemini, Google AI Overviews) förändrar hur människor hittar företag online. Traditionell sökvolym beräknas minska med 25 % till 2026. Detta spår kontrollerar om er webbplats är förberedd för denna förändring.

Vi analyserar:

  • AI-crawleråtkomst genom att tolka er robots.txt för att avgöra vilka AI-botar som kan nå ert innehåll. Att blockera sökcrawlers som OAI-SearchBot eller PerplexityBot innebär att ert företag är osynligt för AI-sökning. Att blockera träningscrawlers (GPTBot, ClaudeBot) är ett giltigt val och påverkar inte betyget.
  • llms.txt förekomst och giltighet. Denna framväxande standard (antagen av 844 000+ webbplatser) ger en strukturerad sammanfattning av er webbplats för AI-konsumtion.
  • Fullständighet i strukturerad data utöver den grundläggande SEO-kontrollen. Vi utvärderar om ert schema är tillräckligt detaljerat för att en AI ska kunna identifiera ert företagsnamn, er plats och ert erbjudande.
  • Innehållsrenderbarhet genom att jämföra er råa HTML (det AI-crawlers ser) med den webbläsarrendererade sidan. Om ert innehåll kräver JavaScript för att visas kan de flesta AI-crawlers inte se det.
  • Semantisk HTML användning. Taggar som <main>, <article> och <nav> hjälper AI att skilja ert faktiska innehåll från navigation och sidkrom.
  • Entitetstydlighet genom att korsreferera ert företagsnamn mellan titel, metabeskrivning, Open Graph-taggar och strukturerad data för konsekvens.
  • Citeringsberedskap genom att kontrollera innehållsmönster som korrelerar med högre AI-citeringsfrekvens: datatabeller, listor, statistik och fristående svarsavsnitt.

Dessa kontroller körs i två spår: DOM-analys via Playwright (strukturerad data, semantisk HTML, entitetstydlighet, citeringsberedskap) och lätta HTTP-anrop (robots.txt, llms.txt, rå HTML för renderbarhetsjämförelse). Båda körs parallellt med alla andra skanningsspår.

Hur vi poängsätter resultat

Var och en av de sex kategorierna får ett betyg från 0 till 100.

Checklistbaserade kategorier (prestanda, SEO, förtroende och säkerhet, webbplatskvalitet, AI-beredskap) använder en fast uppsättning kontroller. Varje kontroll returnerar godkänd, varning eller underkänd, och kategoribetyget är ett viktat genomsnitt.

Tillgänglighet använder en avdragsmodell. Betyget startar på 100 och poäng dras av för varje överträdelse baserat på allvarlighetsgrad:

  • Kritisk: -15 poäng
  • Allvarlig: -10 poäng
  • Måttlig: -5 poäng
  • Mindre: -2 poäng

Det sammanlagda betyget är ett viktat genomsnitt över alla sex kategorier:

  • Prestanda: 20%
  • SEO: 20%
  • Tillgänglighet: 20%
  • Förtroende och säkerhet: 20%
  • Webbplatskvalitet: 10%
  • AI-beredskap: 10%

Vad betygen betyder

  • 90 till 100 (grönt): Bra. Kategorin uppfyller eller överträffar gällande standarder.
  • 50 till 89 (orange): Behöver uppmärksamhet. Det finns problem som bör åtgärdas.
  • 0 till 49 (rött): Betydande problem. Omedelbar åtgärd rekommenderas.

Skanningen är utformad för att visa verkliga, åtgärdbara problem. Vi blåser inte upp betyg för att få resultat att se bättre ut, och vi döljer inte fynd för att undvika att oroa er. Rapporten visar vad verktygen hittade, poängsatt efter hur mycket varje fynd påverkar er webbplats.

Källor

  • Lighthouse - Googles granskningsverktyg för webben (öppen källkod)
  • axe-core - Deque Systems testmotor för tillgänglighet
  • Playwright - Ramverk för webbläsarautomatisering av Microsoft
  • Google Web Risk - Googles API för hotdetektering
  • MDN Observatory - Mozillas verktyg för säkerhetsbetyg

Kör en kostnadsfri skanning av er webbplats

Hur vår webbplatsskanning fungerar | Vivotiv