mastodon.ie is one of the many independent Mastodon servers you can use to participate in the fediverse.
Irish Mastodon - run from Ireland, we welcome all who respect the community rules and members.

Administered by:

Server stats:

1.6K
active users

#PromptEngineering

1 post1 participant0 posts today

"[W]hat we are doing is shepherding AI, limiting it to certain contexts. We are learning where it’s best to call it, how is best to feed it. And what to do with the output. So is it looks very much like an editorial process, an editorial workflow where you provide some initial input, maybe some some idea on what content to produce, then you review it. There’s always that quality assurance, quality control side, the supervision.

AI is not really autonomous. It relies a lot on us. And I feel like sometimes there are days where, when coding through AIs or doing some assisted writing, I’m spending more time helping out the AI doing the actual task that I’m asking the AI to do. But I take this as a learning process. I read this article the other day, Nobody knows how to build with AI yet. And it was a developer saying that they haven’t quite figured out how to best work with AI. There were lots of comments around the fact that you have to spend lots of time, you have to learn how to talk to it, and when the model changes, you have to also maybe change something you’re doing. You have to learn how to optimize your time. But your presence is always mandatory.”

passo.uno/webinar-ai-tech-writ

passo.uno · Webinar: What's Wrong with AI Generated DocsToday I discussed how tech writers can use AI at work with Tom Johnson and Scott Abel. It all started from my post What’s wrong with AI-generated docs, though we didn’t just focus on the negatives; in fact, we ended up acknowledging that, while AI has limitations, it’s also the most powerful productivity tool at our disposal. Here are some of the things I said during the webinar, transcribed and edited for clarity.

Anthropic publikuje poradnik: traktuj AI jak genialnego pracownika z… amnezją

Firma Anthropic, twórca chatbota Claude, opublikowała poradnik dotyczący skutecznego tworzenia poleceń dla sztucznej inteligencji.

W dobie rosnącej popularności chatbotów, umiejętność precyzyjnego formułowania zapytań, ma coraz większe znaczenie. Jak zatem pytać mądrze sztuczną inteligencję? Anthropic proponuje, by myśleć o AI w specyficzny sposób: jak o „genialnym, ale zupełnie nowym pracowniku, który cierpi na amnezję” i potrzebuje bardzo dokładnych instrukcji.

Pierwszą i najważniejszą zasadą, według poradnika, jest precyzja. Chatboty nie znają naszych oczekiwań, stylu pracy ani kontekstu zadania. Dlatego firma zaleca, aby w poleceniu jasno określić, dla jakiej publiczności przeznaczona jest odpowiedź, jaki jest jej cel końcowy, a także jak ma być sformatowana – na przykład w formie listy punktowanej. Równie istotne jest dostarczanie konkretnych przykładów. Technika ta, nazywana „multi-shot prompting”, pozwala znacząco poprawić jakość i spójność odpowiedzi, pokazując AI dokładnie, jakiego rezultatu oczekujemy.

Kolejna wskazówka to danie sztucznej inteligencji „przestrzeni do myślenia”. Chodzi o stosowanie tzw. techniki łańcucha myślowego (chain-of-thought), która polega na instruowaniu chatbota, aby rozłożył złożony problem na mniejsze kroki i przeanalizował je po kolei, zanim udzieli ostatecznej odpowiedzi. Takie podejście prowadzi do bardziej przemyślanych i trafnych rezultatów.

Niezwykle skuteczną strategią, którą podkreśla Anthropic, jest przypisywanie chatbotowi konkretnej roli, na przykład „redaktora wiadomości” lub „analityka finansowego”. Dzięki temu AI dostosowuje swój ton, styl i zakres wiedzy do powierzonej mu funkcji, co jest szczególnie przydatne w skomplikowanych zadaniach, wymagających specjalistycznej perspektywy. Taka technika pozwala precyzyjnie kontrolować charakter generowanych treści.

Poradnik odnosi się również do problemu tzw. halucynacji, czyli zmyślania informacji przez AI. Aby je ograniczyć, Anthropic sugeruje dwie proste metody. Po pierwsze, należy dać chatbotowi wyraźne pozwolenie na przyznanie się do niewiedzy, używając sformułowania „jeśli nie znasz odpowiedzi, powiedz, że nie wiesz”. Po drugie, można zobowiązać go do cytowania źródeł lub weryfikowania swoich twierdzeń poprzez znalezienie potwierdzającego je cytatu.

Zainteresowanym podrzucam link do rzeczonego poradnika od Anthropic (to żywy, tj. stale edytowany i rozwijany dokument).

Prompt engineering is, in my experience, like working with an extremely experienced and knowledgeable developer who is lazy, suffers from dementia and is a compulsive liar. You constantly have to rein them in from veering off on strange tangents and remind them of what we were supposed to be doing. Like a drunk genius or something. Makes me feel like I'm it's minder. I guess that's what I am. #promptengineering #ai #claude4

Okay, ich hab’s ernsthaft ausprobiert: Einen Tag lang Code Engineering mit Roo Code.
Fazit: Ich kehre zurück zum klassischen Vibe Coding über die ChatGPT-Eingabezeile.

Warum?
– Vergisst laufend Kontext
– Loop-Schleifen im Prozess
– Ahnungslos bei Library-Nutzung
– Und teuer: Viele API Calls, 20 $ später noch kein lauffähiger Code.

Also wieder: Terminal, Kaffee, Promptfenster. 🧑‍💻☕

#AI#Coding#RooCode

Hey Mastadon Friends!

If you enjoy real talk about AI, creative independence, prompt engineering, and future-proof thinking, with zero fluff and a little flavor, then you’ll probably dig PromptCraft: my Free Substack.

I write about:
Sovereign AI and what it means for creators, businesses, and governments.
Voice interfaces and how they’re reshaping human-computer interaction
And occasionally, how to stay human in the middle of all this chaos.
I’m not trying to build a cult. Just a smarter audience (that's also kind of a cult).

👉 Subscribe here for FREE access to articles, visuals, and thought experiments you won’t find on LinkedIn: lnkd.in/gVj7givm
If you’re in AI, strategy, creative tech, or just curious about what’s next, consider this your signal.

lnkd.inLinkedInThis link will take you to a page that’s not on LinkedIn

"As frontier model context windows continue to grow, with many supporting up to 1 million tokens, I see many excited discussions about how long context windows will unlock the agents of our dreams. After all, with a large enough window, you can simply throw everything into a prompt you might need – tools, documents, instructions, and more – and let the model take care of the rest.

Long contexts kneecapped RAG enthusiasm (no need to find the best doc when you can fit it all in the prompt!), enabled MCP hype (connect to every tool and models can do any job!), and fueled enthusiasm for agents.

But in reality, longer contexts do not generate better responses. Overloading your context can cause your agents and applications to fail in suprising ways. Contexts can become poisoned, distracting, confusing, or conflicting. This is especially problematic for agents, which rely on context to gather information, synthesize findings, and coordinate actions.

Let’s run through the ways contexts can get out of hand, then review methods to mitigate or entirely avoid context fails."

dbreunig.com/2025/06/22/how-co

Drew Breunig · How Long Contexts FailTaking care of your context is the key to building successful agents. Just because there’s a 1 million token context window doesn’t mean you should fill it.