
Herzlich Willkommen,
mein Name ist Christian Olear, vielen auch bekannt als Otsch – Fullstack Web Developer mit Backend-Schwerpunkt und langjähriger PHP-Erfahrung aus Linz (🇦🇹).
Ich unterstütze Sie bei
- der Entwicklung individueller Web Apps und APIs,
- der Modernisierung von PHP Legacy-Systemen und insbesondere bei
- Projekten, bei denen Web Crawling und Scraping eine Rolle spielt.
Kontaktieren Sie mich unverbindlich – ich bin gespannt auf Ihr Projekt!
Unverbindlich anfragen!
Leistungen
Web App Entwicklung
Sie planen ein Web-Projekt, das über eine klassische, statische Website hinausgeht? Sie brauchen maßgeschneiderte Funktionalität? Sie planen vielleicht sogar eine SaaS-Anwendung? Dann sind Sie bei mir richtig. Ich entwickle solide, individuelle Web Apps und REST APIs.
Mehr erfahrenPHP Legacy Modernisierung
Sie haben ein bestehendes PHP-Projekt, das etwas in die Jahre gekommen ist? Es fehlen Tests, eine klare Struktur – vielleicht wurde es sogar ganz ohne Framework entwickelt? Änderungen werden zunehmend riskant und aufwendig? Ich helfe Ihnen dabei, den Code Schritt für Schritt zu modernisieren – behutsam und nachvollziehbar.
Mehr erfahrenWeb Crawling & Scraping
Sie planen ein Projekt, bei dem laufend Daten aus dem Web extrahiert und zentral gesammelt werden sollen? Das ist mein Spezialgebiet. Ich bin Entwickler der PHP Library crwlr.software und des darauf aufbauenden SaaS-Dienstes crwl.io. Gerne unterstütze ich Sie bei der Planung und Umsetzung Ihres Vorhabens.
Mehr erfahrenDas sagen meine Kunden

Die Zusammenarbeit mit Otsch war für uns enorm hilfreich: Er hat nicht nur unsere ersten Crawler in crwl.io konfiguriert und uns damit den Einstieg deutlich erleichtert, sondern auch individuelle Extraktionslogik programmiert und uns jederzeit schnell und kompetent unterstützt. Seine Erfahrung im Bereich Web Crawling war in jeder Phase spürbar.
Blog
Have you ever deployed your website or web app, only to discover hours later that you’ve introduced bugs or broken links? Or do you clear the cache with every deploy, leaving the first users to experience slow performance? In this guide, you’ll learn how to use a crawler to automatically detect errors and warm the cache, ensuring your site runs smoothly after every deployment.
WeiterlesenVersion 1.8 of the crwlr/crawler package is out, introducing key new functions that will replace existing ones in v2.0. Addressing previous issues with composing crawling result data, this update provides a solution that enhances performance, minimizes memory usage further, and simplifies the process, making it more intuitive and easier to understand.
WeiterlesenSince working with generators can be a bit tricky if you're new to them, this post offers an intro on how to use them and highlights common pitfalls to avoid.
WeiterlesenAbstract classes cannot be instantiated directly, posing a challenge when testing functionality implemented within the abstract class itself. In this article, I will share my approach to addressing this issue.
WeiterlesenThis is the first article of our "Crwlr Recipes" series, providing a collection of thoroughly explained code examples for specific crawling and scraping use-cases. This first article describes how you can crawl any website fully (all pages) and extract the data of schema.org structured data objects from all its pages, with just a few lines of code.
WeiterlesenIs it decreasing and what to do about it?
My friend Florian Bauer recently posted an article saying that PHP needs a rebranding and that he would rename it to HypeScript. Here's my two cents on that subject.
WeiterlesenI'm very proud to announce that version 1.0 of the crawler package is finally released. This article gives you an overview of why you should use this library for your web crawling and scraping jobs.
WeiterlesenVersion 0.6 is probably the biggest update so far with a lot of new features and steps from crawling whole websites, over sitemaps to extracting metadata and schema.org structured data from HTML. Here is an overview of all the new stuff.
WeiterlesenWe're already at v0.5 of the crawler package and this version comes with a lot of new features and improvements. Here's a quick overview of what's new.
WeiterlesenThere is a new package in town called query-string. It allows to create, access and manipulate query strings for HTTP requests in a very convenient way. Here's a quick overview of what you can do with it and also how it can be used via the url package.
Weiterlesen