{"id":31434,"date":"2025-06-18T05:00:00","date_gmt":"2025-06-18T03:00:00","guid":{"rendered":"https:\/\/sii.pl\/blog\/?p=31434"},"modified":"2025-12-17T15:33:47","modified_gmt":"2025-12-17T14:33:47","slug":"jak-zbudowac-specjalistyczny-model-ai-za-ulamek-ceny-praktyczny-przewodnik-po-lora","status":"publish","type":"post","link":"https:\/\/sii.pl\/blog\/jak-zbudowac-specjalistyczny-model-ai-za-ulamek-ceny-praktyczny-przewodnik-po-lora\/","title":{"rendered":"Jak zbudowa\u0107 specjalistyczny model AI za u\u0142amek ceny \u2013 praktyczny przewodnik po LoRA"},"content":{"rendered":"\n<p>Firmy, kt\u00f3re zainwestowa\u0142y w asystent\u00f3w AI generuj\u0105cych og\u00f3lne i cz\u0119sto b\u0142\u0119dne \u2013 zamiast specjalistycznych i dok\u0142adnych \u2013 odpowiedzi, zaczynaj\u0105 rozumie\u0107 problem: <strong>uniwersalne modele j\u0119zykowe nie zast\u0105pi\u0105 narz\u0119dzi dedykowanych konkretnym zadaniom<\/strong>.<\/p>\n\n\n\n<p>Rozwi\u0105zaniem s\u0105 modele AI ukierunkowane na dan\u0105 bran\u017c\u0119, czy nawet problem (tzw. Vertical AI)&nbsp; \u2013 wytrenowane na specjalistycznych danych i dostosowane do konkretnych przypadk\u00f3w u\u017cycia. Wyzwanie stanowi\u0105 jednak koszty: development takiego modelu cz\u0119sto przewy\u017csza bud\u017cet ca\u0142ego dzia\u0142u IT.<\/p>\n\n\n\n<p>Istniej\u0105 jednak metody znacznie obni\u017caj\u0105ce te koszty.<strong> W tym artykule poka\u017cemy, jak zbudowa\u0107 wyspecjalizowany model AI, wykorzystuj\u0105c techniki fine-tuningu i domain adaptation, minimalizuj\u0105c jednocze\u015bnie nak\u0142ady finansowe.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Parameter Efficient Finetuning<\/strong><\/h2>\n\n\n\n<p>Parameter-efficient fine-tuning to technika drastycznie redukuj\u0105ca koszty budowy modelu AI. Zamiast ponownie trenowa\u0107 ka\u017cdy parametr w wielkim modelu (to jak remont ca\u0142ego wie\u017cowca, gdy wystarczy od\u015bwie\u017cy\u0107 schowek na narz\u0119dzia), metody takie jak LoRA (Low-Rank Adaptation, <a href=\"https:\/\/arxiv.org\/pdf\/2106.09685\" target=\"_blank\" rel=\"noopener\" title=\"\" rel=\"nofollow\" >opisana tutaj<\/a>) precyzyjnie \u201ewstawiaj\u0105\u201d niewielkie, trenowalne \u201eadaptery\u201d do zamro\u017conych modeli pre-trained.<\/p>\n\n\n\n<p><strong>To jak modyfikacja genetyczna dla AI<\/strong>. LoRA dodaje wyspecjalizowane \u201eimplanty umiej\u0119tno\u015bci\u201d, kt\u00f3re ucz\u0105 model specyfiki danej domeny, pozostawiaj\u0105c nienaruszony jego podstawowy \u201eintelekt\u201d. Efekt? <strong>Otrzymujesz korzy\u015bci takie jak w modelu budowanym od zera, trenuj\u0105c jedynie 0,1% parametr\u00f3w<\/strong>. To jak posiadanie asystenta z wieloletnim sta\u017cem, kt\u00f3ry poznaje Tw\u00f3j biznes w ci\u0105gu godzin zamiast miesi\u0119cy, a koszt jego zatrudnienia to tyle, co miesi\u0119czny bud\u017cet na kaw\u0119.<\/p>\n\n\n\n<p>Kolejne sekcje s\u0105 techniczne. Je\u015bli nie czujesz si\u0119 komfortowo z matematyk\u0105 lub zaawansowanymi koncepcjami AI, mo\u017cesz przej\u015b\u0107 bezpo\u015brednio do sekcji z wynikami, gdzie odpowiadam na pytanie: <strong>czy LoRA naprawd\u0119 dzia\u0142a?<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>G\u0142\u0119bsze spojrzenie na LoRA<\/strong><\/h2>\n\n\n\n<p>LoRA bazuje na pozornie prostej, ale eleganckiej, zasadzie matematycznej. Zamiast bezpo\u015brednio modyfikowa\u0107 pe\u0142n\u0105 macierz wag dla danej warstwy sieci neuronwej, LoRA rozk\u0142ada j\u0105 na dwie mniejsze macierze, kt\u00f3re po pomno\u017ceniu aproksymuj\u0105 pe\u0142n\u0105 warstw\u0119. Wagi mniejszych macierzy s\u0105&nbsp;ustalane w czasie treningu. <strong>Ten rozk\u0142ad drastycznie redukuje liczb\u0119 trenowalnych parametr\u00f3w<\/strong> \u2013 z potencjalnie milion\u00f3w lub miliard\u00f3w, do tysi\u0119cy.<\/p>\n\n\n\n<p>Oryginalne wagi pozostaj\u0105 w pe\u0142ni zamro\u017cone, a r\u00f3wnolegle nowe wagi \u201ewstrzykiwane\u201d s\u0105 do architektury sieci neuronowej. Podczas forward pass model oblicza wyniki, u\u017cywaj\u0105c jednocze\u015bnie zamro\u017conych oryginalnych i nowych wag, \u0142\u0105cz\u0105c ich wk\u0142ad. Hiperparametr rz\u0119du macierzy (r) kontroluje kompromis mi\u0119dzy efektywno\u015bci\u0105 a ekspresyjno\u015bci\u0105, typowo ustawiany mi\u0119dzy 1 a 64 dla wi\u0119kszo\u015bci zastosowa\u0144.<\/p>\n\n\n\n<p>Ni\u017csze rz\u0119dy drastycznie obni\u017caj\u0105 wymagania pami\u0119ciowe i obliczeniowe, ale mog\u0105 ograniczy\u0107 zdolno\u015b\u0107 modelu do wychwytywania z\u0142o\u017conych wzorc\u00f3w specyficznych dla domeny.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large\"><img decoding=\"async\" width=\"1024\" height=\"539\" src=\"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/Obraz1-1024x539.png\" alt=\"LoRA w praktyce\" class=\"wp-image-31435\" srcset=\"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/Obraz1-1024x539.png 1024w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/Obraz1-300x158.png 300w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/Obraz1-768x404.png 768w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/Obraz1.png 1379w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Ryc. 1 LoRA w praktyce (<a href=\"https:\/\/arxiv.org\/pdf\/2106.09685\" target=\"_blank\" rel=\"noopener\" title=\"\" rel=\"nofollow\" >\u017ar\u00f3d\u0142o<\/a>)<\/figcaption><\/figure>\n\n\n\n<p>Strategia inicjalizacji LoRA zapobiega zak\u0142\u00f3ceniu wiedzy ju\u017c posiadanej przez model. Jedna macierz adaptacji zaczyna od ma\u0142ych warto\u015bci losowych, podczas gdy druga rozpoczyna od zera, zapewniaj\u0105c, \u017ce adaptacja pocz\u0105tkowo nie wp\u0142ywa na zachowanie modelu. To utrzymuje mo\u017cliwo\u015bci modelu pre-trained, jednocze\u015bnie umo\u017cliwiaj\u0105c stopniow\u0105, kontrolowan\u0105 adaptacj\u0119. Dodatkowo mo\u017cemy modulowa\u0107 si\u0142\u0119 adaptacji, zapobiegaj\u0105c katastrofalnemu zapominaniu wiedzy ju\u017c\u00a0posiadanej przez model (<a href=\"https:\/\/en.wikipedia.org\/wiki\/Catastrophic_interference\" target=\"_blank\" rel=\"noopener\" title=\"\" rel=\"nofollow\" >catastrophic forgetting<\/a>).<\/p>\n\n\n\n<p><strong>Zyski efektywno\u015bci tej techniki s\u0105 znacz\u0105ce<\/strong>:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>optymalizowana jest tylko dla niewielkiej ilo\u015bci trenowalnych parametr\u00f3w,<\/li>\n\n\n\n<li>obliczenia gradient\u00f3w przep\u0142ywaj\u0105 jedynie przez \u015bcie\u017ck\u0119 nowych macierzy wag,<\/li>\n\n\n\n<li>u\u017cycie pami\u0119ci skaluje si\u0119\u00a0co do rz\u0119du macierzy, a nie z pe\u0142n\u0105 liczb\u0105 parametr\u00f3w.<\/li>\n<\/ul>\n\n\n\n<p>To umo\u017cliwia fine-tuning na sprz\u0119cie konsumenckim, zamiast infrastruktury enterprise, demokratyzuj\u0105c rozw\u00f3j specjalistycznych modeli w organizacjach ka\u017cdej wielko\u015bci.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Czy to naprawd\u0119 dzia\u0142a?<\/strong><\/h2>\n\n\n\n<p>Zdajemy sobie spraw\u0119, \u017ce teoretyczne obietnice nie gwarantuj\u0105 wydajno\u015bci w rzeczywistych warunkach. Cho\u0107 LoRA prezentuje przekonuj\u0105ce zalety na papierze \u2013 obni\u017cone koszty treningu, szybsz\u0105 adaptacj\u0119 i mniejsze wymagania obliczeniowe \u2013 te korzy\u015bci musz\u0105 zosta\u0107 zweryfikowane w praktyce.<\/p>\n\n\n\n<p>Wdro\u017cenia rozwi\u0105za\u0144 u naszych klient\u00f3w wymagaj\u0105 konkretnych dowod\u00f3w, \u017ce dane rozwi\u0105zania mog\u0105 dostarcza\u0107 rezultaty na poziomie produkcyjnym bez uszczerbku dla jako\u015bci modelu. Dlatego zdecydowali\u015bmy si\u0119 przeprowadzi\u0107 <strong>szczeg\u00f3\u0142ow\u0105 ewaluacj\u0119<\/strong>.<\/p>\n\n\n\n<p>Jako problem dla naszych eksperyment\u00f3w wybrali\u015bmy streszczanie dokumentacji klinicznej \u2013 konkretnie <strong>przekszta\u0142canie z\u0142o\u017conej dokumentacji medycznej w przyst\u0119pne dla pacjent\u00f3w podsumowania<\/strong>. Ten przypadek u\u017cycia podkre\u015bla zastosowania vertical AI w ochronie zdrowia, jednocze\u015bnie odpowiadaj\u0105c na krytyczn\u0105 potrzeb\u0119 poprawy komunikacji z pacjentami i \u015bwiadomo\u015bci zdrowotnej.<\/p>\n\n\n\n<p>Zadanie wymaga zar\u00f3wno specjalistycznej wiedzy medycznej, jak i zaawansowanych mo\u017cliwo\u015bci przetwarzania j\u0119zyka naturalnego, co czyni je <strong>idealnym poligonem testowym<\/strong> dla podej\u015b\u0107 parameter-efficient fine-tuning dla du\u017cych modeli j\u0119zykowych.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Konfiguracja eksperyment\u00f3w<\/strong><\/h2>\n\n\n\n<p>Nasze eksperymenty por\u00f3wnywa\u0142y modele adaptowane przez LoRA z bazowym rozwi\u0105zaniem og\u00f3lnego przeznaczenia jakim jest GPT-4.1. Jako\u015b\u0107 streszczania tekstu mo\u017cna ocenia\u0107 w kilku wymiarach, u\u017cywaj\u0105c szeregu metryk.&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Factuality<\/strong>\u00a0mierzymy za pomoc\u0105 LongDocFACTScore, kt\u00f3ra por\u00f3wnuje ka\u017cde zdanie w streszczeniu z najbardziej podobnymi sekcjami dokumentu \u017ar\u00f3d\u0142owego, u\u017cywaj\u0105c embedding\u00f3w zdaniowych i podobie\u0144stwa kosinusowego. Ta metryka pomaga okre\u015bli\u0107, jak dok\u0142adnie streszczenie odzwierciedla oryginaln\u0105 tre\u015b\u0107.\u00a0<\/li>\n\n\n\n<li><strong>Relevance<\/strong>\u00a0powszechnie ocenia si\u0119 metrykami takimi jak ROUGE i BERTScore. ROUGE ewaluuje nak\u0142adanie si\u0119 s\u0142\u00f3w i fraz mi\u0119dzy wygenerowanymi a referencyjnymi streszczeniami, uwzgl\u0119dniaj\u0105c dopasowania n-gram\u00f3w (ROUGE-N), najd\u0142u\u017csze wsp\u00f3lne podci\u0105gi (ROUGE-L) i podzia\u0142y na poziomie zda\u0144 (ROUGE-Lsum). BERTScore z kolei por\u00f3wnuje kontekstowe embeddingi z modelu BERT, aby uchwyci\u0107 podobie\u0144stwo semantyczne, uwzgl\u0119dniaj\u0105c parafrazowanie i znaczenie wykraczaj\u0105ce poza dok\u0142adne dopasowania s\u0142\u00f3w.\u00a0<\/li>\n\n\n\n<li><strong>Czytelno\u015b\u0107 <\/strong>mierzymy metrykami takimi jak Dale-Chall i Flesch-Kincaid. Wz\u00f3r Dale\u2013Chall uwzgl\u0119dnia d\u0142ugo\u015b\u0107 zda\u0144 i proporcj\u0119 trudnych s\u0142\u00f3w, podczas gdy wynik Flesch-Kincaid ocenia \u0142atwo\u015b\u0107 tekstu w skali 0\u2013100, gdzie wy\u017csze wyniki oznaczaj\u0105 lepsz\u0105 czytelno\u015b\u0107. Te metryki razem zapewniaj\u0105 wszechstronn\u0105 ocen\u0119 jako\u015bci streszczenia.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Wykorzystane narz\u0119dzia<\/strong><\/h3>\n\n\n\n<p>Do treningu i ewaluacji wykorzystali\u015bmy kompleksowy zbi\u00f3r danych biomedycznych&nbsp;<strong>eLife corpus<\/strong>&nbsp;(~330MB nieskompresowany). Ten dataset dostarcza znacz\u0105ce wolumeny recenzowanej literatury naukowej obejmuj\u0105cej r\u00f3\u017cnorodne domeny medyczne i biologiczne, oferuj\u0105c z\u0142o\u017cono\u015b\u0107 i specyfik\u0119 domenow\u0105 niezb\u0119dn\u0105 do testowania mo\u017cliwo\u015bci adaptacyjnych LoRA w wyspecjalizowanych kontekstach zdrowotnych.<\/p>\n\n\n\n<p>Do efektywnego treningu modeli u\u017cyli\u015bmy&nbsp;<strong>Unsloth<\/strong>&nbsp;jako biblioteki fine-tuningu. Trening modeli przeprowadzono na&nbsp;<strong>GPU T4 i L4<\/strong>, kt\u00f3re oferowa\u0142y doskona\u0142\u0105 r\u00f3wnowag\u0119 mocy obliczeniowej i wydajno\u015bci dla zada\u0144 fine-tuningu na du\u017c\u0105 skal\u0119.<\/p>\n\n\n\n<p>Do lokalnego serwowania modelu na komputerze osobistym wykorzystali\u015bmy&nbsp;<strong>LM Studio<\/strong>, kt\u00f3re zapewnia\u0142o lekkie i elastyczne \u015brodowisko do p\u0142ynnego uruchamiania inferencji.<\/p>\n\n\n\n<p>Jako baseline rozwa\u017cyli\u015bmy GPT-4.1, kt\u00f3ry poprosili\u015bmy o streszczenie, u\u017cywaj\u0105c prostego prompta z artyku\u0142u\u00a0<a href=\"https:\/\/arxiv.org\/abs\/2405.11950\" target=\"_blank\" rel=\"noopener\" title=\"\" rel=\"nofollow\" >WisPerMed at BioLaySumm: Adapting Autoregressive Large Language Models for Lay Summarization of Scientific Articles<\/a>.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><em>You will be provided with the abstract of a scientific article. Your task is to write a lay summary that accurately conveys<\/em><em>\u200b<\/em><em> <\/em><em>the key findings and significance of the research in non-technical language understandable to a general audience.<\/em><em>\u200b<\/em><em><\/em><\/p>\n\n\n\n<p><em>Abstract of the scientific article:<\/em><em>\u200b<\/em><em><\/em><\/p>\n\n\n\n<p><em>[Abstract]<\/em><em>\u200b<\/em><em><\/em><\/p>\n\n\n\n<p><em>Lay summary for this article:<\/em><\/p>\n<\/blockquote>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Rezultaty<\/strong><\/h2>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large\"><img decoding=\"async\" width=\"1024\" height=\"312\" src=\"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/tabelka-PL-1024x312.jpg\" alt=\"wyniki\" class=\"wp-image-31437\" srcset=\"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/tabelka-PL-1024x312.jpg 1024w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/tabelka-PL-300x91.jpg 300w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/tabelka-PL-768x234.jpg 768w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/tabelka-PL-1536x468.jpg 1536w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/tabelka-PL.jpg 1626w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Ryc. 2 Wyniki<\/figcaption><\/figure>\n\n\n\n<p>Wyniki eksperymentalne potwierdzaj\u0105 teoretyczne zalety LoRA przekonuj\u0105cymi dowodami. Modele adaptowane z wykorzystaniem LoRA konsekwentnie przewy\u017cszaj\u0105 sw\u00f3j odpowiednik og\u00f3lnego przeznaczenia w niemal wszystkich metrykach ewaluacyjnych. GPT-4.1 osi\u0105ga tylko minimalne zwyci\u0119stwo w jednej kategorii.<\/p>\n\n\n\n<p>Ta r\u00f3\u017cnica w wydajno\u015bci staje si\u0119 jeszcze bardziej znacz\u0105ca, gdy we\u017amiemy pod uwag\u0119 implikacje ekonomiczne: <strong>osi\u0105gni\u0119cie powy\u017cszych rezultat\u00f3w wymaga\u0142o koszt\u00f3w treningu mierzonych w dziesi\u0105tkach dolar\u00f3w zamiast tysi\u0105cach lub milionach, podczas gdy powsta\u0142e wyspecjalizowane modele mog\u0105&nbsp;by\u0107 uruchomione nawet na laptopie<\/strong>! Dzi\u0119ki temu specjalizowane modele AI mog\u0105&nbsp;pom\u00f3c ka\u017cdej organizacji!<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/sii.pl\/oferty-pracy\/\" target=\"_blank\" rel=\"noreferrer noopener\"><img decoding=\"async\" width=\"737\" height=\"170\" src=\"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/praca-PL-k-2.jpg\" alt=\"oferty pracy\" class=\"wp-image-31439\" srcset=\"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/praca-PL-k-2.jpg 737w, https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/praca-PL-k-2-300x69.jpg 300w\" sizes=\"(max-width: 737px) 100vw, 737px\" \/><\/a><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Podsumowanie<\/strong><\/h2>\n\n\n\n<p>Kombinacja wydajno\u015bci domenowej, minimalnych nak\u0142ad\u00f3w na trenowanie ma\u0142ych modeli oraz elastyczno\u015bci wdro\u017ceniowej pokazuje, \u017ce parametrycznie efektywne dostrajanie (parameter-efficient fine-tuning) mo\u017ce dostarcza\u0107 specjalistyczne rozwi\u0105zania AI bez konieczno\u015bci ponoszenia znacz\u0105cych koszt\u00f3w. Dlatego techniki takie jak LoRA b\u0119d\u0105 stopniowo zyskiwa\u0107 na popularno\u015bci, nap\u0119dzaj\u0105c rozw\u00f3j Vertical AI.<\/p>\n\n\n\n<p>Sii ch\u0119tnie <a href=\"https:\/\/sii.pl\/oferta\/data-analytics\/\" target=\"_blank\" rel=\"noopener\" title=\"\">w tym pomo\u017ce<\/a>!<\/p>\n\n\n<div class=\"kk-star-ratings kksr-auto kksr-align-left kksr-valign-bottom\"\n    data-payload='{&quot;align&quot;:&quot;left&quot;,&quot;id&quot;:&quot;31434&quot;,&quot;slug&quot;:&quot;default&quot;,&quot;valign&quot;:&quot;bottom&quot;,&quot;ignore&quot;:&quot;&quot;,&quot;reference&quot;:&quot;auto&quot;,&quot;class&quot;:&quot;&quot;,&quot;count&quot;:&quot;3&quot;,&quot;legendonly&quot;:&quot;&quot;,&quot;readonly&quot;:&quot;&quot;,&quot;score&quot;:&quot;5&quot;,&quot;starsonly&quot;:&quot;&quot;,&quot;best&quot;:&quot;5&quot;,&quot;gap&quot;:&quot;11&quot;,&quot;greet&quot;:&quot;&quot;,&quot;legend&quot;:&quot;5\\\/5 ( votes: 3)&quot;,&quot;size&quot;:&quot;18&quot;,&quot;title&quot;:&quot;Jak zbudowa\u0107 specjalistyczny model AI za u\u0142amek ceny \u2013 praktyczny przewodnik po LoRA&quot;,&quot;width&quot;:&quot;139.5&quot;,&quot;_legend&quot;:&quot;{score}\\\/{best} ( {votes}: {count})&quot;,&quot;font_factor&quot;:&quot;1.25&quot;}'>\n            \n<div class=\"kksr-stars\">\n    \n<div class=\"kksr-stars-inactive\">\n            <div class=\"kksr-star\" data-star=\"1\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" data-star=\"2\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" data-star=\"3\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" data-star=\"4\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" data-star=\"5\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n    <\/div>\n    \n<div class=\"kksr-stars-active\" style=\"width: 139.5px;\">\n            <div class=\"kksr-star\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n            <div class=\"kksr-star\" style=\"padding-right: 11px\">\n            \n\n<div class=\"kksr-icon\" style=\"width: 18px; height: 18px;\"><\/div>\n        <\/div>\n    <\/div>\n<\/div>\n                \n\n<div class=\"kksr-legend\" style=\"font-size: 14.4px;\">\n            5\/5 ( votes: 3)    <\/div>\n    <\/div>\n","protected":false},"excerpt":{"rendered":"<p>Firmy, kt\u00f3re zainwestowa\u0142y w asystent\u00f3w AI generuj\u0105cych og\u00f3lne i cz\u0119sto b\u0142\u0119dne \u2013 zamiast specjalistycznych i dok\u0142adnych \u2013 odpowiedzi, zaczynaj\u0105 rozumie\u0107 &hellip; <a class=\"continued-btn\" href=\"https:\/\/sii.pl\/blog\/jak-zbudowac-specjalistyczny-model-ai-za-ulamek-ceny-praktyczny-przewodnik-po-lora\/\">Continued<\/a><\/p>\n","protected":false},"author":720,"featured_media":31441,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","inline_featured_image":false,"footnotes":""},"categories":[1314],"tags":[5440,2841,2794,1512,680,1032],"class_list":["post-31434","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-development-na-twardo","tag-core-ai","tag-lora-2","tag-da","tag-poradnik","tag-ai","tag-case-study"],"acf":[],"aioseo_notices":[],"republish_history":[],"featured_media_url":"https:\/\/sii.pl\/blog\/wp-content\/uploads\/2025\/06\/Jak-zbudowac-specjalistyczny-model-AI-za-ulamek-ceny-\u2013-praktyczny-przewodnik-po-LoRA.jpg","category_names":["Development na twardo"],"_links":{"self":[{"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/posts\/31434"}],"collection":[{"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/users\/720"}],"replies":[{"embeddable":true,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/comments?post=31434"}],"version-history":[{"count":1,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/posts\/31434\/revisions"}],"predecessor-version":[{"id":31443,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/posts\/31434\/revisions\/31443"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/media\/31441"}],"wp:attachment":[{"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/media?parent=31434"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/categories?post=31434"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sii.pl\/blog\/wp-json\/wp\/v2\/tags?post=31434"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}