MetaCrawler -= SCRIPTWORLD =- Werbeservice PHP-Script herunterladen
ScriptWorldProfessionelle Websites
MetaCrawlerPHP-Script
Beschreibung
# ???? MetaCrawler### AI-powered SEO Meta Generator · v1.0.0
MetaCrawler crawlt das Web nach einem Stichwort oder einer URL, analysiert die gefundenen Seiten
und generiert mithilfe einer KI automatisch **3 optimierte Vorschläge** für Titel, Meta-Description
und Keywords. Zusätzlich können vollständige Artikel generiert werden.
**Komplett kostenlos nutzbar · Kein Login · Kein Abo · Einmal einrichten, dauerhaft nutzen.**
---
## ? Features
| Feature | Beschreibung |
|---|---|
| ???? **Web-Crawling** | Bing, DuckDuckGo, Wikipedia + direkte URLs |
| ???? **Multi-Provider AI** | OpenAI, Claude, Gemini, Mistral, Ollama |
| ???? **3 Vorschläge** | Titel (50–60 Z.), Description (150–160 Z.), Keywords |
| ???? **Artikel-Generator** | ~800 Wörter, 4 Schreibstile, DE + EN |
| ???? **Lernpool** | Wörter aus Crawls werden gespeichert & gewichtet |
| ???? **JSON-Export** | Jede Analyse als JSON-Datei exportierbar |
| ???? **SQLite** | Kein MySQL nötig – läuft auf jedem Hosting |
| ???? **DE + EN** | Deutsche und englische Ausgabe wählbar |
---
## ???? Installation
### 1. Voraussetzungen
| Anforderung | Version |
|---|---|
| PHP | 8.0 oder höher |
| cURL Extension | Pflicht |
| PDO SQLite Extension | Pflicht |
| Schreibrechte | `storage/` und `logs/` Ordner |
### 2. Dateien hochladen
Alle Dateien in ein Verzeichnis auf dem Webserver hochladen, z.B.:
```
https://ihre-domain.de/metacrawler/
```
### 3. config.php anpassen
```php
// Provider wählen
define('AI_PROVIDER', 'claude'); // openai | claude | gemini | mistral | ollama
// Nur den gewählten Provider ausfüllen:
define('CLAUDE_API_KEY', 'sk-ant-...');
define('CLAUDE_MODEL', 'claude-3-5-haiku-20241022');
```
### 4. Ordner-Rechte setzen
```bash
chmod 755 storage/
chmod 755 logs/
```
### 5. Fertig – aufrufen
```
https://ihre-domain.de/metacrawler/
```
Die SQLite-Datenbank wird beim ersten Aufruf automatisch erstellt.
---
## ???? AI-Provider Übersicht
### OpenAI
- **API-Key**: https://platform.openai.com/api-keys
- **Empfohlenes Modell**: `gpt-4o-mini` (günstig, schnell)
- **Kosten**: ~$0.15 / 1M Input-Tokens
```php
define('AI_PROVIDER', 'openai');
define('OPENAI_API_KEY', 'sk-...');
define('OPENAI_MODEL', 'gpt-4o-mini');
```
---
### Anthropic Claude
- **API-Key**: https://console.anthropic.com/
- **Empfohlenes Modell**: `claude-3-5-haiku-20241022` (schnell & günstig)
- **Kosten**: ~$0.25 / 1M Input-Tokens
```php
define('AI_PROVIDER', 'claude');
define('CLAUDE_API_KEY', 'sk-ant-...');
define('CLAUDE_MODEL', 'claude-3-5-haiku-20241022');
```
---
### Google Gemini
- **API-Key**: https://makersuite.google.com/app/apikey
- **Empfohlenes Modell**: `gemini-1.5-flash`
- **Kosten**: Kostenlos bis 1M Tokens/Monat
```php
define('AI_PROVIDER', 'gemini');
define('GEMINI_API_KEY', 'AIza...');
define('GEMINI_MODEL', 'gemini-1.5-flash');
```
---
### Mistral AI
- **API-Key**: https://console.mistral.ai/api-keys/
- **Empfohlenes Modell**: `mistral-small-latest`
- **Kosten**: ~$0.20 / 1M Tokens
```php
define('AI_PROVIDER', 'mistral');
define('MISTRAL_API_KEY', '...');
define('MISTRAL_MODEL', 'mistral-small-latest');
```
---
### Ollama (lokal – kostenlos)
- **Download**: https://ollama.ai
- **Kein API-Key nötig** – läuft komplett lokal
- **Kosten**: 100% kostenlos
```bash
# Ollama installieren & Modell laden
ollama pull llama3.2
ollama serve
```
```php
define('AI_PROVIDER', 'ollama');
define('OLLAMA_HOST', 'http://localhost:11434');
define('OLLAMA_MODEL', 'llama3.2');
```
> **Hinweis:** Ollama funktioniert nur wenn MetaCrawler auf demselben Server
> wie Ollama läuft (Localhost). Für Shared-Hosting empfiehlt sich ein Cloud-Provider.
---
## ???? Dateistruktur
```
metacrawler/
??? config.php ? Konfiguration (Provider, API-Keys)
??? index.php ? Hauptseite: Analyse & 3 Vorschläge
??? artikel.php ? Artikel-Generator
??? history.php ? Analyse-Verlauf
??? keywords.php ? Keyword-Lernpool visualisiert
??? einstellungen.php ? Setup-Übersicht & Systeminfo
?
??? includes/
? ??? header.php ? Navigation & CSS
? ??? footer.php ? Footer
? ??? crawler.php ? Web-Crawling Engine (cURL + Parser)
? ??? ai.php ? Multi-Provider AI Interface
? ??? storage.php ? SQLite Datenbankschicht & Lernfunktion
?
??? storage/
? ??? metacrawler.db ? SQLite Datenbank (auto-erstellt)
? ??? exports/ ? JSON-Exporte
?
??? logs/ ? Fehler-Logs
```
---
## ???? Lernfunktion
Bei jeder Analyse extrahiert MetaCrawler die häufigsten Wörter aus allen gecrawlten Seiten
und speichert sie in der lokalen SQLite-Datenbank (`keywords`-Tabelle).
**Was passiert konkret:**
- Stoppwörter (der, die, das, the, and, ...) werden gefiltert
- Wörter unter 3 Zeichen werden ignoriert
- Jedes Wort erhält einen Häufigkeitszähler
- Bei erneuter Verwendung wird der Zähler erhöht
**Auswirkung:**
- Auf der Hauptseite werden verwandte Keywords aus dem Lernpool vorgeschlagen
- Je mehr Analysen, desto treffsicherer die Vorschläge
- Unter `keywords.php` ist der gesamte Lernpool als Wortwolke sichtbar
---
## ???? Seiten-Übersicht
### ???? index.php – Analyse
Stichwort oder URL eingeben ? Web wird gecrawlt ? KI generiert 3 Vorschläge.
Jeder Vorschlag enthält:
- **Title Tag** mit Zeichenzähler (Ziel: 50–60 Zeichen, grün markiert)
- **Meta Description** mit Zeichenzähler (Ziel: 150–160 Zeichen)
- **Keywords** als klickbare Tags
- **"Alles kopieren"** Button – alle 3 Felder in einem Rutsch
### ???? artikel.php – Artikel-Generator
Generiert einen ~800-Wörter-Artikel auf Basis gecrawlter Daten.
Schreibstile:
- **Informativ** – sachlich, für breites Publikum
- **Blog** – locker, persönlich, mit "Ich/Wir"
- **SEO-optimiert** – höhere Keyword-Dichte
- **Verkauf** – überzeugend, mit Call-to-Actions
### ???? history.php – Verlauf
Alle bisherigen Analysen. Details und JSON-Export pro Eintrag.
### ???? keywords.php – Lernpool
Alle gesammelten Keywords als gewichtete Wortwolke.
Je häufiger ein Begriff gefunden wurde, desto größer dargestellt.
### ?? einstellungen.php – Setup
- Übersicht aller Provider mit Konfigurationsbeispielen
- Links zu den jeweiligen API-Key-Seiten
- Systemprüfung (PHP-Version, cURL, SQLite, Schreibrechte)
---
## ???? Konfigurationsreferenz
```php
// config.php – alle Optionen
// Provider (eines wählen)
define('AI_PROVIDER', 'claude'); // openai | claude | gemini | mistral | ollama
// Crawling-Einstellungen
define('CRAWL_TIMEOUT', 10); // Sekunden pro Request
define('CRAWL_MAX_URLS', 5); // Max. zu crawlende URLs pro Analyse
define('CRAWL_USER_AGENT', '...'); // User-Agent-String
// Limits
define('FREE_SUGGESTIONS', 3); // Anzahl Vorschläge pro Analyse
define('FREE_ARTICLE_LEN', 800); // Ziel-Wortanzahl für Artikel
// Sprache
define('DEFAULT_LANG', 'de'); // de | en
define('TIMEZONE', 'Europe/Berlin');
```
---
## ???? Sicherheitshinweise
- Die `config.php` enthält API-Keys – Zugriff per `.htaccess` schützen:
```apache
# .htaccess im Hauptverzeichnis
Order allow,deny
Deny from all
```
- Den `storage/` Ordner vor direktem Webzugriff schützen:
```apache
# storage/.htaccess
Deny from all
```
- Den `logs/` Ordner ebenfalls schützen:
```apache
# logs/.htaccess
Deny from all
```
---
## ???? Geplante Erweiterungen (Roadmap)
> Diese Features sind **noch nicht implementiert** und können in einer späteren Version
> hinzugefügt werden.
### ???? Benutzerverwaltung (Login/Register)
- Eigene Analyse-Historien pro Nutzer
- Eigene Keyword-Listen und Projekte
- Getrennte Lernpools pro Nutzer
### ???? Premium-Modell
- Kostenlose Version: 3 Analysen/Tag
- Premium (Einmalkauf oder Abo): Unbegrenzte Analysen
- PayPal IPN Integration (analog PasswortBox)
### ???? Projekt-Verwaltung
- Mehrere URLs/Keywords als "Projekt" zusammenfassen
- Regelmäßige Re-Analyse (Cron-Job) mit Änderungs-Benachrichtigung
- Vergleich: Wie haben sich Rankings verändert?
### ???? Bulk-Analyse
- CSV-Upload mit mehreren Keywords/URLs
- Batch-Verarbeitung im Hintergrund
- Export als Excel/CSV
### ???? Ranking-Tracking
- Keyword-Positionen bei Google/Bing tracken
- Historische Verläufe und Grafiken
- Benachrichtigung bei Positions-Änderungen
### ???? Mehr Crawling-Quellen
- Google (mit Proxy-Rotation)
- Reddit, Quora für Community-Keywords
- Amazon (für Produkt-Keywords)
- YouTube (für Video-SEO)
### ???? API-Endpunkt
- REST-API für externe Anbindung
- Webhook-Support
- WordPress-Plugin
---
## ? Häufige Fragen
**Warum werden manchmal keine Ergebnisse gefunden?**
Manche Websites blockieren Crawler. Versuche ein anderes Stichwort oder eine direkte URL
einer zugänglichen Seite.
**Warum ist die AI-Antwort manchmal unvollständig?**
Bei günstigeren Modellen (z.B. Haiku, gpt-4o-mini) kann das Token-Limit erreicht werden.
In `ai.php` den `$maxTokens`-Wert in der `complete()`-Methode erhöhen.
**Kann ich MetaCrawler auf Shared-Hosting betreiben?**
Ja, solange PHP 8+, cURL und PDO-SQLite verfügbar sind. Ollama funktioniert nur auf
eigenen Servern (VPS/Root-Server).
**Wo werden die Daten gespeichert?**
Ausschließlich lokal in `storage/metacrawler.db` (SQLite). Es werden keine Daten
an externe Server gesendet außer an den gewählten AI-Provider.
**Wie kann ich den Lernpool zurücksetzen?**
Die Datei `storage/metacrawler.db` löschen. Sie wird beim nächsten Aufruf neu erstellt.
---
## ???? Lizenz
MIT Einzel-License – frei verwendbar, anpassbar.
Bei Weitergabe bitte diese README beilegen.
---
*MetaCrawler v1.0.0 · Erstellt mit PHP 8 · SQLite · Web Crypto API*

0 Bewertungen