Polskie piwa prawie czyste

Z 12 najpopularniejszych polskich piw, tylko w jednym stwierdzono pozostałości niebezpiecznego pestycydu.

Tytułowa czystość polskich piw stała się przedmiotem badań na obecność pestycydów, a zwłaszcza glifosatu, uważanego za szczególnie szkodliwy dla zdrowia. Przebadano 18 piw popularnych polskich marek. Wyniki pozytywnie zaskoczyły – tylko w jednym z piw wykryto pozostałości glifosatu, pozostałe są wolne od tego i ponad 500 innych pestycydów.
Glifosat to podstawowy składnik najskuteczniejszych środków chemicznych stosowanych do niszczenia roślin uznanych za chwasty. Część naukowców uważa, że jest on substancją rakotwórczą. W 2015 r. Międzynarodowa Agencja Badań nad Rakiem zaklasyfikowała glifosat jako substancję prawdopodobnie rakotwórczą, mogącą zwiększać ryzyko wystąpienia chłoniaka nieziarniczego, groźnego nowotworu, który u nieleczonego człowieka może spowodować zgon w ciągu kilkunastu tygodni. Rok później amerykańska federalna Agencja Ochrony Środowiska w swoim raporcie uznała, że glifosat nie jest rakotwórczy. Natomiast w 2017 r. Europejska Agencja Chemikaliów stwierdziła, że glifosat silnie uszkadza oczy, ale na podstawie obecnych badań nie można go uznać za substancję rakotwórczą, niszczącą materiał genetyczny człowieka oraz zagrażającą płodności.
Glifosat stał się tematem petycji do premiera Mateusza Morawieckiego, zatytułowanej „Dość trucia!”. Cel petycji jest bardzo ambitny. To między innymi zmniejszenie o połowę ilości pestycydów stosowanych w uprawach, zmniejszenie o połowę ilości antybiotyków w hodowli zwierząt, ograniczenie o 20 proc. stosowania nawozów mineralnych oraz zwiększenie udziału rolnictwa ekologicznego do 25 proc., a to wszystko do 2030 roku.
W tej chwili udział rolnictwa ekologicznego w całości upraw w Polsce to zaledwie około 3 proc i stale maleje, m.in. ze względu na wysokie ceny tych produktów, ich wątpliwą dość często ekologiczność, oraz niemożność sprostania przez producentów warunkom stawianym przez państwo. Jednak gdzie indziej umie się rozwijać rolnictwo ekologiczne – dla porównania w Czechach uprawy ekologiczne stanowią około 14 proc., a w Austrii 24 proc. wszystkich uprawianych płodów rolnych.
Badania czystości piwa przeprowadził latem bieżącego roku Zakład Badania Bezpieczeństwa Żywności Instytutu Ogrodnictwa w Skierniewicach – jedno z najlepszych takich laboratoriów w Polsce i Europie. Trafiło tam 12 najpopularniejszych piw z polskich sklepów: należące do Kampanii Piwowarskiej SA marki: Lech Premium, Tyskie, Żubr, Lech Free; z Grupy Żywiec SA: Żywiec Premium, Warka Strong, Królewskie, Żywiec 0,0%; oraz ze spółki Carlsberg marki: Jasne Okocimskie, Harnaś Jasne Pełne, Piast Wrocławski, Karmi Classic.
Ponadto przebadano (także na obecność pozostałości glifosatu, jak i 500 innych pestycydów) kolejne sześć popularnych piw mniejszych browarów. Do skierniewickiego laboratorium trafiły: Łomża Jasne, Perła Chmielowa Pils, Noteckie, PilsAmber Chmielowy, Mocne Jasne Eksportowe i CiechanLagerowe Niefiltrowane.
Badania zorganizowała organizacja FoodRentgen i Instytut Spraw Obywatelskich (bo jakość piwa jest sprawą ważną dla naszych obywateli), a patronował im serwis dozdrowia.com.pl
W pierwszej kolejności sprawdzone zostały właśnie pozostałości glifosatu. Spośród tych wszystkich piw tylko w jednym wykryto jego obecność.
Raport będący efektem tego badania, autorstwa Instytutu Spraw Obywatelskich i FoodRentgen stwierdził co następuje: „Pytanie, czy obecność pozostałości glifosatu w piwie Piast to wypadek przy pracy. Spodziewalibyśmy się, że firma pokroju Carlsberg ma własną politykę surowcową i zapewnienia jakości produktów”.
Natomiast wszystkie pozostałe piwa okazały się wolne od pozostałości glifosatu, przynajmniej powyżej minimalnego stężenia, badanego przez Zakład Badania Bezpieczeństwa Żywności Instytutu Ogrodnictwa, wynoszącego 0,01 mg/l produktu.
W kolejnym etapie skierniewickie laboratorium sprawdziło pozostałości 500 innych pestycydów. Tu także wszystkie próbki okazały się czyste.
Warto przypomnieć, że w ubiegłym roku FoodRentgen we współpracy z Instytutem Spraw Obywatelskich zorganizował badania kasz gryczanych i jaglanych. Okazało się, że w niemal połowie przebadanych produktów znaleziono przekroczenia dopuszczalnych stężeń pozostałości glifosatu. Raporty z tego badania zostały pobrane przez ponad 55 tys. konsumentów.
Mówiąc konkretniej, w sześciu z dziesięciu kasz gryczanych znanych marek, dostępnych w dużych sieciach handlowych w całej Polsce, w dwóch wykryto pozostałości glifosatu, mieszczące się jednak w granicach najwyższych dopuszczalnych polskim prawem poziomów tej substancji w produkcie.
Po tych badaniach zdecydowano się sprawdzić czystość polskich piw. Tym razem – w przypadku piw – wiadomości były dobre!
– Wykonano 27 badań, w tym 18 na obecność pozostałości glifosatu oraz 9 na obecność pozostałości ponad 500 różnych innych pestycydów. Tylko w jednym piwie znaleziono pozostałości glifosatu na poziomie 0,04 mg/l produktu. Wszystkie pozostałe piwa były czyste – mówi Marcin Galicki z FoodRentgen.
– Mówimy o 400 krotnym przekroczeniu normy określonej dla wody, jednego z trzech podstawowych składników piwa. Punktem odniesienia były dla nas badania monachijskie z roku 2016, w których wszystkie piwa miały pozostałości glifosatu. Kilka piw miało przekroczenia ponad normę, a najwyższe wynosiło wówczas 300-krotną normę wyznaczoną dla wody pitnej – dodaje Rafał Górski z Instytutu Praw Obywatelskich.
Pewnym problemem jest to, że w polskim i unijnym ustawodawstwie mamy określone normy najwyższych dopuszczalnych poziomów dla produktów prostych (takich jak np. kasze) ale nie mamy ich dla produktów złożonych. Produkty złożone składają się z dwóch i więcej składników – i do takich zalicza się piwo.
– Z pewnością łatwiej byłoby określać poziom czystości piw, gdyby taka norma istniała. Byłoby to korzystne zarówno dla producentów, jak i konsumentów – uważa Górski.
Organizatorzy akcji zostali zainspirowani wspomnianymi badaniami Monachijskiego Instytutu Środowiska, który sprawdził na obecność pozostałości glifosatu 14 najpopularniejszych marek piwa na rynku niemieckim. Okazało się więc, że piwa warzone w Polsce są zdrowsze niż te u naszych zachodnich sąsiadów.
Jak zauważa Marcin Galicki z FoodRentgen, być może obecna czystość polskich piw wynika właśnie z faktu zauważenia tego problemu w Niemczech w roku 2016. Jeśli tak jest rzeczywiście, to może to być dobry prognostyk nie tylko dla konsumentów, ale dla całej polskiej branży spożywczej, włączając w to producentów kasz. Zauważenie problemu jest bowiem początkiem jego rozwiązania.

Polski sinolog Michał Boym pionier polsko-chińskich kontaktów (część I)

Wybitny polski sinolog, dyplomata oraz pisarz Edward Kajdański zmarł 10 września 2020 roku. Jedynym z najważniejszych dzieł, których był autorem to opracowanie o Michale Boymie. Oto historia nauki polskiego misjonarza i orientalisty Michała Boyma, która zostają opisana przez Edwarda Kajdańskiego oraz chińskich uczonych.

Michał Boym, który żył 400 lat temu, nie jest tak znany jak wenecki kupiec i podróżnik, Marco Polo czy inny jezuicki misjonarz – Matteo Ricci, to jednak jego dokonania pod żadnym względem nie ustępują osiągnięciom sinologów dawnych epok. Z dużym prawdopodobieństwem można go nawet uznać za najwybitniejszego sinologa swoich czasów. Był pierwszym Europejczykiem, który przedstawił Zachodowi usystematyzowaną wiedzę na temat naukowych zdobyczy, geografii, historii, filozofii i kultury Chin. Niestety, z jego dorobkiem, z wielu przyczyn, zapoznali się tylko nieliczni i Boym na wieki odszedł w zapomnienie, nie zdobywając należnej mu pozycji w gronie prekursorów i najświetniejszych badaczy Orientu.
W 2014 i 2015 roku w Kantonie, Pekinie oraz innych chińskich miastach można było zwiedzać ekspozycję zatytułowaną „Dla lepszego wzajemnego poznania. Między Chinami i Europą – kulturalne dziedzictwo Michała Boyma”.
Autor wystawy – polski sinolog, Edward Kajdański był badaczem i znawcą życia oraz spuścizny polskiego jezuity. Kajdański urodził się w 1925 r. w Harbinie w rodzinie polskiego inżyniera. W Harbinie uczęszczał do polskiej szkoły podstawowej i średniej, a następnie rozpoczął studia na Politechnice Harbińskiej. Po uzyskaniu dyplomu powrócił do Polski, w ramach repatriacji ludności polskiej. Od lat 60. do 80. ubiegłego wieku pracował jako dyplomata w Ambasadzie RP w Pekinie i w Konsulacie RP w Kantonie. Wtedy też, w latach 70., rozpoczął swoje badania nad biografią Michała Boyma. Zaowocowało to wydaniem kilku (najpełniejszych jak dotąd) poświęconych temu niezwykłemu Polakowi monografii, m.in. Michał Boym. Ostatni wysłannik dynastii Ming, Michał Boym. Ambasador Państwa Środka, a także przełożonego i opracowanego przez Kajdańskiego wyboru prac Boyma pt. Michała Boyma opisanie świata. Wydawnictwa te doczekały się szeregu przekładów, w tym na język chiński, i bardzo przyczyniły się do ponownego „odkrycia” XVII-wiecznego sinologa. Edward Kajdański tak opowiadał o swojej „przygodzie” z polskim jezuitą:
„Jeśli chodzi o sprawę Boyma i jego prace, to zajmuję się tym już od, mniej więcej, 40 lat. Moje pierwsze spotkanie z Boymem odbyło się jeszcze w szkole. Chodziłem do polskiej szkoły w Harbinie, gdzie wykładał profesor, który był archeologiem i bardzo interesował się historią Chin. Często uczył nas jej, opowiedział nam m. in. o tym, że pewien polski misjonarz pracował na dworze cesarza Ming. Ja się tym bardzo zainteresowałem, ale nie wiedziałem o tym, że Boym dużo pisał po łacinie. Jednak większość jego prac nigdy nie została wydrukowana. Inne wydano drukiem, choć nie zawsze pod jego nazwiskiem”.
W 2012 r., z okazji 400. rocznicy urodzin Michała Boyma, wydano w Chinach książkę Dzieła Michała Boyma, zawierającą 770 tysięcy znaków. Składają się na nią wszystkie zachowane i dostępne prace polskiego misjonarza, które z łaciny na polski przetłumaczył Edward Kajdański, a z polskiego na chiński przełożył znany tłumacz języka polskiego, professor Zhang Zhenhui. Ponadto do zbioru włączono sporządzone przez Boyma tłumaczenie i interpretację pochodzącego z VIII w. nestoriańskiego napisu na słynnej Steli z Xinganfu (dzisiejszy Xi’an) dokumentującego 150-letnią historię wczesnego chrześcijaństwa w Chinach. Tekst z angielskiego na chiński przetłumaczył profesor Zhang Xiping specjalizujący się w chińskich badaniach nad zagraniczną sinologią. Jest to pierwsze, tak w Chinach, jak i na świecie, tak kompletne wydanie prac Michała Boyma.
Według profesora Zhang Xipinga, wkład Edwarda Kajdańskiego w studia nad dorobkiem Boyma jest nieoceniony:
„W Europie czasów Boyma nie rozwinęła się jeszcze idea prawa autorskiego, stąd kwestia autorstwa jest trudna do ustalenia. Kajdański zrobił wszystko, co tylko można, by odnaleźć rękopis Boyma i po dogłębnej analizie napisanego po łacinie tekstu, potwierdził autorstwo. Dokonał tego, czego ze względów językowych chińscy uczeni nie potrafili zrobić”.
Kajdański wspominał historię swojej pracy nad biografią Boyma: „Jakieś 30 lat temu, kiedy po raz pierwszy chciałem napisać artykuł o Boymie, poprosiłem zakon jezuitów we Francji, żeby pozwolili mi zobaczyć rękopisy Boyma o Chinach. Zgodzili się i zaprosili mnie do Francji, żebym wygłosił referat. Od tego czasu jeszcze bardziej interesowałem się Boymem. Potem okazało się, że jego prace były w wielu muzeach i biliotekach na świecie. W Berlinie, Paryżu, Rzymie, Londynie czy Lizbonie. I ja to wszystko pościągałem”.
Podczas prezentacji nowo wydanych Dzieł Michała Boyma, Edward Kajdański stwierdził z przymrużeniem oka: „Cieszę się z tego, że w tej chwili Boym jest chyba lepiej znany w Chinach niż w Polsce”.
A profesor Zhang Xiping powiedział z dumą: „Jestem dumny z tego, że ta książka, która jest wynikiem ścisłej współpracy chińskich ekspertów i polskiego sinologa, nie została wydana ani w wersji angielskiej, ani polskiej, tylko w chińskiej.”
Profesor Zhang Xiping, który jest najbardziej uznanym boymistą w Chinach, swoje zainteresowanie osobą Boyma tłumaczył następująco: „Badaniom nad tą postacią poświęciłem kilkanaście lat. Moją uwagę zwróciły dwie ważne kwestie wyróżniające polskiego misjonarza spośród rzeszy innych historycznych postaci: po pierwsze, na stałe wpisał się on w karty historii Chin, próbując ratować pogrążającą się pod naporem Mandżurów dynastię Południowych Ming; po drugie, jako pierwszy usystematyzował ówczesną wiedzę o Chinach, przekształcając amatorską sinologię misjonarzy w profesjonalną dyscyplinę naukową i pod tym względem odegrał niebagatelną rolę w historii Europy. Słynny francuski sinolog, Jean Pierre Abel Rémusat języka chińskiego uczył się właśnie z ksiąg Boyma”.
„W swojej pracy poświęcił się Chinom i samo to jest już bardzo ważne. Fascynujące jest również to, że był człowiekiem, który dla kontaktów między Chinami a Polską znaczy tyle, co Marco Polo dla Włoch”. Powiedział profesor Zhang Zhenhui. Pierwszą książkę poświęconą Michałowi Boymowi zaczął tłumaczyć w 1993 r. Zachwyciła go ta postać. Głównie z uwagi na wszystkie przeciwności losu, jakim z uporem stawiał czoła oraz z uwagi na jego oddanie chińskiej sprawie.
„Kochał Chiny i do końca był im wierny. Aby wypełnić powierzoną mu przez chińskiego cesarza misję, udał się w trudną i długą podróż z Chin do Europy i z powrotem. Trzeba pamiętać, że na drogach w owych czasach na każdym kroku czyhało niebezpieczeństwo. W rezultacie swoją lojalność wobec mingowskiego tronu przypłacił własnym życiem”.
W naszych czasach dystans pomiędzy Chianmi a Europą nie stanowi już specjalnego wyzwania. Można go pokonać w kilka bądź kilkanaście godzin, łatwo i wygodnie. Ale wtedy, w XVII w., była to kilkumiesięczna, lub wręcz kilkuletnia, wyprawa, uciążliwa i ryzykowna. Podjęcie jej wymagało odwagi i wytrwałości. Niewielu spośród tych, którzy w taką podróż wyruszli, przetrwało jej trudy i dotarło do celu.
W 1643 roku Michał Boym wypłynął statkiem z Lizbony, po raz pierwszy udając się na Wschód. Po roku dotarł do Makau, gdzie spędził jakiś czas, ucząc się chińskiego, a następnie trafił na wyspę Hainan i tam mieszkał przez kilka lat. W 1650 r. oddelegowano go na dwór Południowych Mingów, skąd został wysłany przez cesarza Yongli z poselstwem do papieża. Boym przybył do Rzymu, jednak nie udało mu się wyjednać papieskiego wsparcia dla cesarza Mingów. Rozczarowany, ruszył w powrotną drogę do Chin. Podczas tej podróży zmarło czterech z ośmiu jego towarzyszy. W 1658 r. , przez północny Wietnam dotarł do południowych granic Państwa Środka. Ale było już za późno. Do tego czasu Mandżurowie pokonali dynastię Ming, podbili całe Chiny i rządzili jako dynastia Qing. Wycieńczony podróżą, chorował przez kilka miesięcy. Zmarł na południu dzisiejszej prowincji Guanxi, 22 sierpnia 1659 r., w wieku 47 lat. Dokładne miejsce jego spoczynku nie jest znane.
Michał Boym nawet w najtrudniejszej sytuacji myślał o Chinach. W swoim liście pisał: „Gotów jestem powrócić na pole walki w Chinach nawet za cenę mojej reputacji i mojego zdrowia”.
To oddanie chińskiej sprawie kosztowało go najwyższą cenę – własne życie.
„Zakres jego badań jest o wiele szerszy, a wnioski z nich o wiele głębsze, niż te prezentowane przez Marco Polo!” Stwierdził profesor Zhang Zhenhui, który szanuje Boyma także za jego dokonania na polu nauki.
„Wśród wszystkich znanych mi dawnych europejskich misjonarzy, nie ma żadnego, który mu dorównywał w studiach nad chińską cywilizacją. Inni skupiali się na przedstawianiu europejskiej wiedzy, religii i kultury Chinom, a on – odwrotnie – dostarczył Europie ogromnej ilości informacji o Chinach”.

Europejczycy już nie wierzą w USA

Na kryzys zaufania Europejczyków, jak twierdzą badacze, miała wpływ pandemia koronawirusa. Jednak poza wirusem można znaleźć wiele innych czynników, które naruszyły obraz USA jako wiarygodnego i godnego zaufania państwa.

O braku zaufania do Stanów Zjednoczonych pisze „The Guardian”, opierając się na wynikach badani opinii publicznej przeprowadzonych na zamówienie Europejskiej Rady ds. Stosunków Zagranicznych na przełomie kwietnia i maja tego roku w dziewięciu krajach UE, stanowiących dwie trzecie populacji Unii.
Ponad 60 proc. pytanych stwierdziło, że stracili zaufanie do USA jako do światowego lidera. Jednym z kluczowych czynników tego stanu, jest poczucie osamotnienia wobec pandemii, która zmusiła poszczególne kraje do radzenia sobie samotnie z wyzwaniem. Najwięcej respondentów z negatywnym stosunkiem do USA odnotowano w Danii (71 proc.), Portugalii (70 proc.), Francji (68 proc.), Niemczech (65 proc.), i Hiszpanii (64 proc.).
Analizy ekspertów wskazują, że postawa USA podczas pandemii miała decydujący wpływ na takie właśnie postrzeganie amerykańskiego państwa. Chodzi o kompromitującą walkę z koronawirusem na terenie USA i na obojętność wobec kryzysu, z jakim zetknęli się w Europie amerykańscy sojusznicy.
„The Guardian” powołuje się na wystąpienie kanclerz Angeli Merkel, która niedawno właśnie o tym wspominała: „Zaufanie Europejczyków w stosunku do USA zniknęło. Wielu było wstrząśniętych chaotyczną odpowiedzią Amerykanów na COVID-19, brakiem solidarności z Europejczykami, które pokazali zamykając granice przed członkami Schengen i brakiem ich roli w kierowaniu walką z kryzysem wywołanym przez koronawirusa lub choćby uczestnictwa w rozwiązaniu tego problemu, jeśli nie liczyć słownych przepychanek z WHO”, mówiła niemiecka kanclerz i ta jej wypowiedź dobrze charakteryzuje teraźniejsze postrzeganie USA przez Europejczyków.
„Europejczycy przyjęli do wiadomości fakt, że USA nie są już więcej bezwarunkowym przyjacielem Europy w trudnych czasach”, pisze jedna z ekspertek Susi Dennison.
Ilustracją tego braku wiary niech będzie fakt, że na pytanie, czy spodziewają się amerykańskiej pomocy od Stanów Zjednoczonych w odbudowie gospodarki UE, twierdząca odpowiedziało zaledwie 2 proc. pytanych w Niemczech i 3 proc. we Francji.
Eksperci zwracają też uwagę, że nie jest to dowód na niechęć do Donalda Trumpa i jego administracji. To kryzys zaufania do USA jako całości. Twierdzą też, że jeżeli USA szybko nie zareaguje na ten kryzys zaufania wobec ich kraju, to Europa sama będzie liczyć na siebie podczas rozwiązywania poważnych globalnych problemów takie jak klimat i przyszłe pandemie.
Opisywany sondaż pokazuje dowodnie to, co widać od dłuższego czasu gołym okiem: zmienia się świat, zmienia się rola USA. Kto tego nie dostrzega i nie wyciągnie z tego wniosków we właściwym czasie, ten przegra. Polska jest pierwsza w kolejce.

Czy wskaźniki będą prawdziwsze?

Główny Urząd Statystyczny poprawia metody zbierania informacji o cenach artykułów konsumpcyjnych.

Trudno może uważać to za sukces, do którego doszło wyłącznie na skutek działań lewicowej prasy, ale nie ulega wątpliwości, że to właśnie „Trybuna” oraz „Przegląd”, jako chyba jedyne pisma w Polsce, za sprawą wyżej podpisanego opublikowały parokrotnie artykuły, poddające w wątpliwość wiarygodność obliczania cen przez Główny Urząd Statystyczny.
Wskaźniki cen prezentowane przez GUS wydawały się bowiem zaniżone w porównaniu z tym, co pokazywały doświadczenia Polaków i stan ich portfeli. Podstawowy powód zgłaszanych obiekcji, to zbyt mała próba i nie do końca właściwy wybór placówek, w których GUS badał ceny.
Aby lepiej pokazywać rzeczywistość
I oto, kilka miesięcy po wspomnianych publikacjach, nastąpił efekt: GUS oficjalnie poinformował, że zmienił (zaktualizował) założenia służące do obliczeń wskaźników cen artykułów konsumpcyjnych w 2020 r. Zmienił je w ten sposób, by zwiększyć ich reprezentatywność, czyli stopień odzwierciedlenia faktycznych zmian cen. Jak słusznie tłumaczy GUS, jednym z kluczowych kryteriów jakości badania cen konsumpcyjnych jest zachowanie reprezentatywności próby, czyli dostosowanie badania do zmieniających się uwarunkowań zewnętrznych i wewnętrznych. Konieczne jest stałe uwzględnianie wielu czynników, które warunkują kształt próby stosowanej w badaniu”.
No właśnie. A problemem, poruszonym w „Trybunie” i „Przeglądzie” było to, iż zbyt mało jest tych czynników, uwzględnianych przez GUS w badaniu cen. Dziś GUS podkreśla, że określając wskaźniki wzrostu cen trzeba brać pod uwagę m. in. zmiany zachowań konsumentów, struktury sprzedaży detalicznej, dostępności nowych źródeł danych, zalecenia Eurostatu (urzędu statystycznego Unii Europejskiej) – a także nowelizowanie wymogów prawnych oraz „proces redukcji obciążeń ankieterów”.
Przekładając te ostatnie słowa z języka GUS-owskiego na ludzki, oznacza to, iż nadmiernie obciążeni ankieterzy, badający zbyt wiele placówek handlowych w ciągu dnia, mają skłonność do pobieżnego wykonywania swej pracy i niezbyt rzetelnego sprawdzania cen. GUS wskazuje też, że działaniem, które ma zapewnić odpowiednią reprezentatywność zmiennych podlegających badaniu, jest coroczna weryfikacja próby.
Badania na szerszej próbie
Sieć ankieterów, podobnie jak w 2019 r., gromadzi ceny i informacje o wybranych towarach i usługach w 207 rejonach badania, obejmujących teren całego kraju. W sposobie obliczania cen przez GUS wprowadzono jednak szereg zmian. Przede wszystkim, następuje aktualizacja listy badanych punktów handlowych, co jak podaje GUS, powinno lepiej niż dotychczas odzwierciedlać ofertę rynkową artykułów konsumpcyjnych. Chodzi zwłaszcza o odzież, alkohole, sprzęt RTV i AGD. Można oczekiwać, że z listy ostatecznie wypadną punkty o marginalnym znaczeniu, coraz rzadziej odwiedzane przez klientów. Zwiększono także zakres obserwowanych taryf cen gazu ziemnego i gazu miejskiego.
Nieco zmienia się sposób zbierania danych o cenach nowych samochodów osobowych. Uzupełnieniem informacji gromadzonych przez sieć ankieterów stają się dane pozyskiwane ze stron internetowych.
Bardzo ważne jest to, że wreszcie następuje zwiększenie badanej bazy sprzedaży wielu produktów. Oznacza to, że wskaźniki wzrostu cen będą ustalane na podstawie danych zbieranych w liczniejszej niż dotychczas grupie punktów sprzedaży. GUS podaje, że zwiększenie próby badawczej obejmuje między innymi ceny dań gotowych, artykułów użytku domowego, usług związanych z prowadzeniem gospodarstwa domowego, jednośladów silnikowych, opłat za przejazdy, telefonów komórkowych, usług fryzjerskich.
GUS nie ujawnia natomiast, o ile konkretnie większa stała się liczba badanych placówek handlowych. Oczywiste jest jednak, że nie można mówić o wiarygodnym odzwierciedlaniu skali wzrostu cen, jeśli ankieterzy zatrudnieni przez wojewódzkie urzędy statystyczne, tak jak dotychczas zbierają co miesiąc dane tylko z niespełna 35 tys. miejsc w całym kraju (sklepy duże i małe, bary i restauracje, placówki usługowe, bazary itp.), podczas gdy w Polsce jest prawie 360 tys. sklepów, nie mówiąc o innych miejscach sprzedaży towarów i usług (jak np. internet). Ceny są więc badane tylko w bardzo niewielkiej części punktów handlowych na terenie kraju.
Pytanie natomiast, czy na większą dokładność wskaźników wpłynie to, że ankieterzy nie będą już zbierać danych o zmianach cen paliw prywatnych środków transportu na wybranych stacjach benzynowych, tak jak dotychczas?. Teraz do obliczania cen tych paliw mają służyć wyłącznie dane pochodzące od zarządców i dysponentów stacji. A przecież, wydaje się, że najdokładniejszych informacji o ruchu cen dostarczają liczby na ekranach świetlnych, stojących przy prawie każdej stacji. No, chyba, że pokazywane tam cyfry mają się nijak do cen pokazywanych na dystrybutorach…
Także i w przypadku wskaźników cen usług ubezpieczeniowych oraz cen mieszkań i domów mieszkalnych, dane pozyskiwane przez ankieterów mają być uzupełniane danymi pochodzącymi od firm sprzedających ubezpieczenia, domy i mieszkania.
Wiarygodność musi kosztować
Każde rozszerzenie próby badawczej jest oczywiście poważnym i kosztownym wyzwaniem logistycznym. Z drugiej jednak strony, należy dążyć do tego, by wskaźniki podawane przez GUS można było uznawać za w miarę wiarygodne źródło wiedzy o ruchu cen – choć oczywiście stuprocentowej pewności nie uzyska się nigdy. Tak jak i wiary polskiego społeczeństwa w to, że dane podawane przez GUS są zawsze zgodne z rzeczywistością.
Szefowie GUS nie od dziś zauważają niezbyt wielkie zaufanie Polaków do wyliczeń cen podawanych przez urząd. Stwierdzają więc: „Wynik pomiaru wzrostu cen konsumpcyjnych wyrażony wskaźnikiem nigdy nie będzie odpowiadał społecznemu odczuciu. Składa się na to wiele przyczyn, zarówno obiektywnych, jak i subiektywnych. Najważniejszą z nich jest przeciętny charakter wskaźnika, pomiar odnoszący się do dużych zbiorowości, różniący się od sytuacji poszczególnych gospodarstw domowych czy rodzin”.
Inną przyczyną rozmijania się wskaźników z rzeczywistością mogą być niezbyt dogłębne badania budżetów gospodarstw domowych – tym bardziej, że tam wynik zależy tylko od tego, co zechcą powiedzieć osoby prowadzące te gospodarstwa. „Jakość zebranych danych od gospodarstw domowych w tym badaniu ma istotny wpływ na wskaźnik cen towarów i usług konsumpcyjnych” – zauważa więc słusznie GUS. Główny Urząd Statystyczny informuje także, że: „Prowadzone są intensywne prace o charakterze badawczo-rozwojowym, np. dotyczące analizy możliwości zastosowania nowej metodyki dla alternatywnych formuł indeksów cen, które w połączeniu z toczącą się aktualizacją wytycznych międzynarodowych, mogą przełożyć się na zmiany w sposobie prowadzenia badań cen w GUS”.
Wprawdzie dość trudno to zrozumieć, ale można odnieść wrażenie, iż GUS deklaruje, że chce badać ceny rzetelniej niż dotychczas. Z czego należy się tylko cieszyć.

Uchodźcy w Niemczech na zasiłkach?

49 proc. uchodźców, którzy przybyli do Niemiec w latach 2013-15 nie ma problemu z odnalezieniem się na rynku pracy – głosi raport instytutu badawczego IAB. Dane te udowadniają, że opowieść o migrantach wygodnie umoszczonych na socjalu jest mitem.

Zaledwie kilka lat wystarczyło przybyszom z Afryki i Bliskiego Wschodu do zaadoptowania się na niemieckim rynku pracy. Obecnie pracę ma już połowa z nich. – To zaskakująco dobre dane – skomentował ekspert OECD Thomas Liebig. Jak podkreślił, podobne zjawisko zaobserwować można w Austrii i krajach skandynawskich.
Autorzy raportu wskazują również, że uchodźcy z ostatniej fali radzą sobie na polu zawodowym lepiej niż przybysze z Jugosławii, którzy przyjechali do RFN w latach 90 XX wieku. Szybciej wchodzą na rynek pracy i potrafią utrzymać zatrudnienie. Jest to o tyle zaskakujące, że migranci z Bałkanów nie musieli się mierzyć z tak znacznymi różnicami kulturowymi, a ich przeciętny poziom wykształcenia był wyższy niż w przypadku ostatnich przybyszów.
Najczęściej zatrudnienie w Niemczech znajdowali Pakistańczycy. Około 60 proc. migrantów z tego kraju ma już pracę. Podobnie wysoki jest odsetek wśród imigrantów z Nigerii i Iranu
Problemem pozostaje jednak dysproporcja między kobietami a mężczyznami. 57 proc. zatrudnionych uchodźców to mężczyźni, a tylko 29 proc. to kobiety.
Co ważne, migranci nie wykonują tylko prostych prac. Około 50 proc. z nich pracuje na stanowiskach uznawanych za specjalistyczne. – To niespodzianka – mówi Herbert Brücker, dyrektor IAB. Tylko 20 proc. z przybyłych ma kwalifikacje zawodowe, czy skończyło studia. Ich zatrudnienie pokazuje więc, że albo się uczą w ciągu ostatnich miesięcy, albo dobrze przystosowują do nowych obowiązków.
Według niemieckich przepisów o pozwolenie na pracę może ubiegać się każda osoba w trzy miesiące po złożeniu wniosku o azyl. W ciągu pierwszych miesięcy pobytu przysługuje im tylko ograniczone prawo do podejmowania pracy. Osoby, które uzyskały azyl mają pełny dostęp do rynku pracy.
Raport sporządzono na próbie 8000 uchodźców, którzy przybyli do RFN w latach 2013-2016.

Innowacyjnie to już było

Rządowi PiS nie zależy na modernizowaniu polskiej gospodarki. Przekracza to zresztą jego możliwości.

Jeśli mowa o postępie w innowacyjności, to niestety Polski to nie dotyczy. Rząd Prawa i Sprawiedliwości nic nie robi, by podnieść innowacyjność naszej gospodarki.
PiS-owscy prominenci wprawdzie dość często o tym mówią, ale to tylko lipna propaganda na użytek szerokiej publiczności. W rzeczywistości obecna ekipa się tym nie zajmuje – i nie przejmuje.

Pod koniec listy

Efekty takiego podejścia ze strony rządu PiS widać w międzynarodowych rankingach najbardziej innowacyjnych gospodarek. Jak wskazuje Globalny Indeks Innowacyjności 2019, Polska zajmuje dopiero 39 miejsce. To najważniejszy na świecie wskaźnik dotyczący tej sfery, sporządzany przez Światową Organizację Własności Intelektualnej ONZ oraz dwie wybitne wyższe uczelnie: Uniwersytet Cornella oraz Europejski Instytut Administracji Biznesowej. Obejmuje on 129 krajów.
Za czasów rządów PO-PSL, Polska awansowała w Globalnym Rankingu Innowacyjności z 56 na 39 miejsce. Postęp był więc naprawdę duży, ale ekipa z PIS to zaprzepaściła. Od 2016 r. nasz kraj zajmuje to samo 39 miejsce.
Jeszcze gorzej wypadamy w drugiej prestiżowej klasyfikacji: Europejskim Rankingu Innowacyjności publikowanym przez Komisję Europejską. Ranking ten obejmuje wszystkie kraje Unii Europejskiej. Polska zajmuje w nim 25 miejsce, wyprzedzając jedynie Chorwację, Bułgarię i Rumunię.
Możemy tylko marzyć o doścignięciu Litwy, Łotwy czy Słowacji, o Czechach, Węgrach czy Słowenii już nie wspominając. Za rządów PO-PSL nasz kraj zajmował w tym rankingu 23 miejsce.

Rząd bezczynny i bierny

Indolencja i brak zainteresowania rządu PiS to główny powód tak niskiego stopnia innowacyjności polskiej gospodarki – bo bez wsparcia ze strony administracji państwowej żaden kraj nie jest w stanie skutecznie modernizować swego potencjału wytwórczego.
Polscy naukowcy mogą osiągać sukcesy, ale ich praca jest niweczona przez bierność i bezczynność instytucji rządowych.
– Wydatki na innowacyjność w Polsce w rzeczywistości często polegają na… kupowaniu innowacji zagranicznych. Konkurujemy zaś, tak jak zwykle, tanią siłą roboczą. Ale czas taniej siły roboczej właśnie się u nas kończy – mówi dr. Patryk Dziurski ze Szkoły Głównej Handlowej.
O braku wsparcia dla innowacji dobrze wie znakomity naukowiec oraz lekarz, prof. Henryk Skarżyński, twórca i szef Instytutu Fizjologii i Patologii Słuchu oraz Światowego Centrum Słuchu. Swoje Centrum Innowacyjne profesor otwiera w Senegalu.
– W Polsce szuka się oszczędności na innowacyjnych technologiach medycznych. W rezultacie, rodzice chorych dzieci korzystają z nich prywatnie – ale oczywiście tylko ci, których na to stać. Narodowy Fundusz Zdrowia nie finansuje nowatorskich technologii – podkreśla prof. Henryk Skarżyński.
Takie technologie mogą w Polsce powstawać. Przeszkodą nie jest brak zdolności naszych naukowców. Przeszkodą jest bierność i nieskuteczność organizacyjna rządu PiS.

Daleko od patentów

– Mamy świetnych naukowców, ich odkrycia mogą i powinny być bazą do uzyskiwania patentów na najważniejszych rynkach świata. Nie wystarczy jednak stworzenie dobrej technologii. Trzeba mieć strategię budowania portfela patentowego. Polska własność intelektualna musi być powszechnie chroniona. My jednak nie możemy skalować swych osiągnięć i zaistnieć globalnie – wskazuje Bogusława Skowrońska, ekspertka z zarządu Fundacji Przedsiębiorczości Technologicznej.
Oczywiście, nie zmienia to faktu, że w Polsce są lepsi i gorsi naukowcy – w tym i tacy, co nie tylko prochu, lecz niczego nie wymyślą.
Bojąc się utraty swych posad wykonują bezpieczne badania podstawowe, które zgodnie z definicją ( zawartą w ustawie o szkolnictwie wyższym i nauce ) są pracami teoretycznymi, podejmowanymi przede wszystkim w celu zdobycia nowej wiedzy o podstawach zjawisk i faktów, bez nastawienia na bezpośrednie zastosowanie komercyjne.
Te badania można spokojnie ciągnąć latami, bez widocznych rezultatów – ale one nie unowocześnią polskiej gospodarki.

Trzeba zmieniać rzeczywistość

– Wykonując tylko badania podstawowe, niczego wokół siebie nie zmienimy. Trzeba prowadzić takie badania, które przynoszą konkretne wyniki – a potem je komercjalizować, wytwarzać i stosować – mówi prof. Anna Wójcicka z Centrum Nowych Technologii Uniwersytetu Warszawskiego.
Pani profesor wie o tym z własnego doświadczenia, jako prezes spółki naukowej wykonującej zaawansowane testy genetyczne mogące ratować życie.
Jak głosi misja spółki: „Wykorzystując nowoczesne narzędzia analizy genetycznej poszukujemy w genomie człowieka błędów odpowiedzialnych za powstawanie chorób”.
– Dla wielu pacjentów to bardzo istotne, że jesteśmy firmą polską. Dzięki temu aż 98 proc. z nich zgadza się na wykorzystanie badań swych genów dla naszych celów naukowych Wykonujemy te same badania co w zaawansowanych krajach zachodnich – ale umiemy tworzyć technologie, dzięki którym możemy robić je taniej. Obniżka cen, wynikająca z innowacyjności, a nie z niskich kosztów pracy, to duża część naszego sukcesu – podkreśla prof. Wójcicka.
Z tych testów genetycznych wynika między innymi, że u 5 proc. badanych osób występuje bardzo duże ryzyko zachorowania na chorobę nowotworową. Wykonanie badań genetycznych u wszystkich Polaków pozwoliłoby na zapobieganie i wczesne leczenie tych nowotworów.
Te badania genetyczne uratowałyby życie wielu ludzi i przyniosły ok. 90 mld zł oszczędności – ale oszczędności byłyby w perspektywie dwudziestu lat, a nie od razu. Wiadomo więc, że rząd PiS nie wyda ani grosza, aby takie badania przeprowadzić.

Sondażowa karuzela

Czy można wierzyć sondażowym wynikom wyborów?

„Jasny, czytelny system, w którym przez ostatnie dwa tygodnie mamy sondażową ciszę wyborczą, daje perspektywę, że nic nie będzie wpływało na decyzję społeczeństwa oprócz agitacji kandydatów i ich programów politycznych” – mówił w 2014 roku Krzysztof Gawkowski, ówczesny sekretarz generalny SLD. Zaś posłowie i posłanki Klubu Poselskiego Sojuszu Lewicy Demokratycznej złożyli projekt ustawy zakazującej publikacji sondaży na 14 dni przed wyborami. Projekt oczywiście przepadł, bo rządząca koalicja PO-PSL nie miała w zwyczaju popierania jakichkolwiek zapisów proponowanych przez opozycję. Patrząc na tegoroczną sondażową karuzelę można zadać sobie pytanie: czy dwa przedwyborcze tygodnie bez sondaży to dobry pomysł?

Jajko czy kura

W ostatnich tygodniach nowe sondaże pojawiają się średnio co 3 dni. W omówieniu każdego z nich jest dopisek, że błąd pomiaru wynosi 3 procent. Ale różnice poparcia poszczególnych formacji są dużo, dużo większe. Porównajmy chociażby sondaż CBOS-u, który robiony był w dniach od 12 do 19 września z sondażem IBRiS-u wykonywanym dosłownie parę dni później (20-21 września). W pierwszym z nich poparcie dla Lewicy wyceniono zaledwie na 5 proc. W drugim – na 14,1 proc. Skąd taka różnica?
Przyglądając się wynikom niektórych sondaży, nie sposób nie wrócić do pytania zadawanego już przez starożytnych filozofów. Co było pierwsze? Jajko czy kura? Czy sondaże mają za zadanie odzwierciedlanie preferencji politycznych opinii społecznej? Czy jej kształtowanie?
Na sondażowe dylematy zwraca uwagę Marcin Palade – znawca tego tematu. „Do wyborów pozostał niespełna miesiąc. Do gry wracają więc fejk sondażownie. Mechanizm ten sam co w eurowyborach. Z góry wiemy komu w wydrukowanych słupkach dodadzą, a komu odejmą” – napisał Palade w połowie września. I przypomniał jeden z majowych sondaży, zrobiony tuż przed wyborami do Europarlamentu. Dający Prawu i Sprawiedliwości 35 proc. – o 10 punktów procentowych za mało. I Wiośnie Biedronia 10 proc. – o 4 punkty procentowe za dużo.
Marcin Palade postawił sprawę jasno: oprócz zalewających przestrzeń publiczną klasycznych „fake newsów” (fałszywych wiadomości), możemy mieć również do czynienia z „fake sondażami”. Nie czuję się na siłach typować sondaży mniej lub bardziej prawdziwych. Ale chciałbym podzielić się z Wami wiedzą, która pozwoli patrzeć na sondaże trzeźwiejszym okiem.

Telefon i dzwonek

Ze względu na koszty, większość sondaży robiona jest drogą telefoniczną. Jednym z nielicznych wyjątków jest CBOS. Ankieterzy tej sondażowni z reguły pojawiają się u swoich respondentów osobiście. Czy taki sposób badania opinii społecznej jest bliższy prawdy? Niekoniecznie. Specjaliści od marketingu politycznego zwracają uwagę na charakterystyczne zachowanie badanych. Bezpośrednia rozmowa z ankieterem, na dodatek w mieszkaniu respondenta, ma wpływ na mniejsze poczucie anonimowości przepytywanego. Stąd większa ilość odpowiedzi „poprawnych”. Czyli popierających tych, którzy aktualnie rządzą. Na wszelki wypadek.
Tyle o CBOS-ie. Ta sondażownia – jako jedyna – jest finansowana z budżetu kancelarii premiera. Nie zakładam z góry, że podaje nierzetelne wyniki badań. Ale oczywiście nie można wykluczyć wywierania nacisków polityków z ugrupowań aktualnie rządzących.

Komórka

Sondażownie podają, że przy doborze respondentów kierują się trzema kryteriami: wiekiem, wykształceniem i wielkością miejsca zamieszkania. Z pierwszym warunkiem nie ma problemu. Sam kiedyś odpadłem w przedbiegach. Ankieter zapytawszy o wiek, od razu mi podziękował. Bo on akurat poszukiwał kogoś w przedziale wiekowym od 18 do 24 lat. Z drugim kryterium też nie powinno być większych kłopotów. Bo raczej do wyjątków należy, że ktoś z wyższym wykształceniem pracuje jako robotnik budowlany. A osoba z wykształceniem podstawowym obraca się w środowisku akademickim.
Zdecydowanie najwięcej kłopotów jest z trzecim kryterium – wielkości miejsca zamieszkania. Zupełnie inne preferencje polityczne może mieć mieszkaniec wsi w województwie zachodniopomorskim od tego mieszkającego na podobnej wsi, ale na Podkarpaciu. Podobnie jak inny jest elektorat we Wrocławiu i w Rzeszowie. Kiedyś dotarcie do reprezentatywnego grona badanych było łatwiejsze. Wystarczyło sięgnąć po książkę telefoniczną danego województwa. W dobie telefonii komórkowej przypisanie abonentów do poszczególnych regionów kraju jest niemal niewykonalne.
Jestem zdania, że istotna część „przestrzelonych” sondaży wynika właśnie z braku prawidłowej reprezentacji poszczególnych regionów kraju.

1000 czy 500

Każda z sondażowni chwali się, że przepytano ponad 1000 osób. Ale to wcale nie oznacza, że tyle głosów wzięto pod uwagę przy ustalaniu wyniku sondażu. Pierwsze pytanie dotyczy bowiem zamiaru uczestnictwa w wyborach. Ci, którzy odpowiedzą, że na pewno nie wezmą udziału w wyborach (lub raczej nie wezmą udziału) – odpadają. Jeśli więc deklarowana frekwencja oscyluje między 50 a 60 procent, na wynik sondażu ma wpływ głos 500-600 respondentów.
Tak nieliczna grupa badanych decyduje o sporym przybliżeniu ostatecznego wyniku – zwłaszcza w przypadku mniejszych ugrupowań. Wystarczy bowiem, że w kolejnym sondażu 5 osób mniej zadeklaruje poparcie dla PSL-u i nagle z 5,5 proc. poparcia robi się 4,5 proc. I partia wypada z Sejmu. Dlatego sporym nadużyciem sondażowni jest publikowanie wyników z dokładnością do dziesiątych części procenta. I twierdzenie, że temu wzrosło o 0,2 proc., a tamtemu spadło o 0,5 proc. Takie „dokładne” wyniki oczywiście lepiej wyglądają. Ale nic poza tym.

Niezdecydowani

Dla każdej sondażowni ciemną liczbą są respondenci, którzy z jakiś względów nie podają swoich preferencji partyjnych. To grupa niezdecydowanych. Niekiedy bardzo liczna, bo sięgająca kilkunastu procent. Sondażownie radzą sobie z nimi w dwojaki sposób. Jedne wliczają do sondażu niezdecydowanych wyborców, co skutkuje tym, że suma poparcia dla wszystkich partii jest mniejsza od 100 proc. Inne odrzucają grupę niezdecydowanych wyborców, wyliczając preferencje partyjne wyborców zdecydowanych.
Brak jasnego zaznaczenia, z którą metodą liczenia mamy do czynienia, utrudnia porównywanie poszczególnych sondaży. Weźmy na przykład PiS, który w jakimś sondażu osiągnął poparcie 40 proc. respondentów. Ale równocześnie 15 procent z nich nie wskazało żadnej partii. Jeśli pominiemy ich w obliczeniach, wynik Prawa i Sprawiedliwości natychmiast skoczy do 47 proc. Dlatego jeśli prześledzimy sondaże publikowane przez media prawicowe, niemal wszystkie liczone są tą metodą.
Osobiście bardziej przemawia do mnie sondaż uwzględniający wyborców niezdecydowanych. Bo w prawdziwych wyborach wcale nie musi tak być, że głosy „niedecydowanych” rozłożą się proporcjonalnie na wszystkie partie.

Frekwencja

Sondaże sondażami, ale jednym z kluczowych elementów decydujących o wyniku będzie frekwencja w wyborach. Przed wyborami europejskimi Kantar przeprowadził sondaż w grupie młodych wyborców w wieku od 18 do 30 lat. Wynik okazał się zaskakujący. Wśród młodych kobiet wygrała Wiosna Roberta Biedronia, uzyskując wynik 27 proc. Wśród młodych mężczyzn najlepszy wynik 29 proc. poparcia uzyskała Konfederacja. W wyborach Wiosna miała 6 proc., a Konfederacja nie przekroczyła progu wyborczego.
Specjalistów tak znaczna rozbieżność pomiędzy sondażem a wynikiem wyborów w tej grupie wiekowej nie dziwi. Zaliczają bowiem młodych wyborców do najmniej zdyscyplinowanych. Zapowiadających uczestnictwo w wyborach. Ale ostatecznie nie pojawiających się w lokalach wyborczych.
W niedawnym sondażu Kantar dla Gazety Wyborczej w grupie wiekowej 18-24 lata największe poparcie – wynoszące 25 proc. – miała Lewica. To bardzo dobry prognostyk, jeśli chodzi o perspektywy polskiej lewicy na przyszłość. Ale jednocześnie ważnym jest, aby ci młodzi ludzie lewicy pamiętali o wyborach 13 października. I wzięli w nich udział.
Obiecujący jest wynik sondażu IBRiS z minionego tygodnia. Zapytano o determinację wyborców, jeśli chodzi o udział w wyborach. Okazało się, że wyborcy Lewicy są elektoratem najbardziej zmotywowanym do pójścia na wybory.

Drugi wybór

W bardziej zaawansowanych sondażach ważnym elementem są pytania o partie drugiego wyboru. Czyli takie, na które respondent byłby skłonny oddać głos, gdyby z jakiś względów nie mógł go oddać na swoją partię. To badanie wskazuje na możliwe przepływy między poszczególnymi partiami.
Sondaż IPSOS dla portalu OKO.press z początku września bardzo wyraźnie zarysował „szklany sufit” prawicy Jarosława Kaczyńskiego. Do 41 proc. jakie PiS uzyskał w tym sondażu dochodzi jedynie 4 proc. wyborców z innych partii, którzy ewentualnie skłonni byliby poprzeć PiS. Zupełnie inaczej sytuacja wygląda na styku Koalicji Obywatelskiej i Lewicy. Dla 51 proc. wyborców Koalicji Obywatelskiej partią drugiego wyboru jest Lewica. I wzajemnie: aż 69 proc. wyborców Lewicy nie wyklucza głosowania na Koalicję Obywatelską.
Zresztą większość sondaży potwierdza wzajemną zależność notowań KO i Lewicy. Z reguły wzrostowi notowań Lewicy towarzyszy spadek poparcia KO. Dzisiaj – na podstawie sondaży – możemy powiedzieć, że Koalicja Obywatelska i Lewica dysponują w sumie poparciem na poziomie 40 procent z plusem. Jak to poparcie przełoży się na wynik każdego z ugrupowań – okaże się 13 października.

Bez sondaży

Nie odpowiedziałem na pytanie postawione na wstępie: czy zakazać publikowania sondaży na krótko przed terminem wyborów? Odpowiedź pozostawiam Czytelniczkom i Czytelnikom. Radząc jednocześnie, by do każdego kolejnego sondażu podchodzić z dużą rezerwą. Bo w ostatecznym rachunku liczy się tylko ten jeden. Prawdziwy. Ten 13 października.

PiS nie modernizuje Polski

Nasz kraj nadal wlecze się w ogonie państw europejskich pod względem innowacyjności. To się raczej nie zmieni.

Komisja Europejska opublikowała raport dotyczący innowacyjności („European Innovation Scoreboard 2019”). W rankingu obejmującym wszystkie kraje Unii Europejskiej Polska znalazła się 25 miejscu, wyprzedzając tylko Chorwację, Bułgarię i Rumunię.
Polska znajduje się na tym 25 miejscu w unijnym rankingu innowacyjności od 2011 r. W latach poprzednich była to pozycja 24 lub 23 ( w latach 2006-2010).
Mimo ogromnych funduszy unijnych, które przeznaczane były i są na innowacje oraz na działalność badawczo-rozwojową, mimo pieniędzy krajowych kierowanych na te cele, oraz coraz lepiej dostosowanych do potrzeb przedsiębiorstw rozwiązań prawnych, mających wspierać ich decyzje dotyczące inwestycji w innowacje i badania oraz rozwój, nasza pozycja wśród krajów UE pogarsza się.
Inni po prostu robią na rzecz innowacyjności więcej niż Polska. Litwa, Łotwa i Słowacja wyprzedziły nas już dawno.
Indeks opisujący polską innowacyjność co prawda systematycznie, z roku na rok rośnie. Ale w porównywalnym tempie rośnie też średni indeks innowacyjności dla UE. Nie zmniejszają się zatem w sposób istotny różnice między poziomem innowacyjności w Polsce i w UE.
Co jest tego powodem? Przede wszystkim niski poziom innowacyjności mikro, małych i średnich przedsiębiorstw. Ich skłonność do wdrażania rozmaitych innowacji (produktowych, procesowych, marketingowych i organizacyjnych) jest bardzo niska. Niska jest także skłonność tych małych i średnich przedsiębiorstw, które inwestują w innowacje, do współpracy z innymi podmiotami. Odzywa się tu brak zaufania, który zdaje się być naszą przywarą także w procesie inwestowania w innowacje.
Problemy niskiej innowacyjności tkwią także w słabości polskiego systemu badań naukowych. Niewiele osób spoza Polski chce u nas pracować nad doktoratami, a polscy naukowcy mało mają międzynarodowych publikacji i niezbyt często są one cytowane. A to oznacza, że nasza baza naukowa bez której trudno o innowacyjność, istotnie różni się in minus od średniej dla UE.
Raport Komisji Europejskiej zwraca także uwagę na niski poziom inwestycji realizowanych przez fundusze podwyższonego ryzyka. Rzeczywiście, fundusze działające na polskim rynku nie są zainteresowane nowymi, innowacyjnymi firmami (start-upami) w początkowej fazie ich działania. Zdecydowanie chętniej włączają się z kapitałami i swą wiedzą, gdy produkt jest już gotowy, a rynek się nim zainteresował.
Ale mamy też, według unijnego raportu, także i silne strony – duża liczbę osób z wyższym wykształceniem, dobrze już rozbudowana sieć łączy szerokopasmowych. Nadzieję budzi też zwiększające się zatrudnienie w szybko rosnących firmach działających w innowacyjnych sektorach.
Warto przyjrzeć się rankingowi innowacyjności i jego składowym, bo znaleźć tam można odpowiedź na cześć pytań o przyczyny ciągle niskiego poziom innowacyjności polskiej gospodarki.
Jak widać, ani spore kapitały przeznaczane na badania, rozwój i innowacje, ani naprawdę dobre rozwiązania podatkowe (ulgi na działalność badawczo-rozwojową oraz objęcie 5-procentową preferencyjną stawką podatkową dochodów z praw własności intelektualnej) nie są wystarczające.
Potrzebne jest wzmocnienie sektora nauki i silniejsze powiązanie go z gospodarką, wzmocnienie zdolności kapitałowej małych i średnich przedsiębiorstw do inwestowania, zainteresowanie funduszy finansowaniem także i tych inwestycji, które znajdują się we wczesnych fazach rozwoju i obarczone są sporym ryzykiem niepowodzenia. Tylko pomysłu na wzrost zaufania nie ma.
Zwiększenie skłonności do inwestowania w innowacje jest ważne, bo jak Komisja Europejska podkreśla w swym raporcie, w ciągu ostatnich kilkunastu lat innowacje były siła napędową około dwóch trzecich wzrostu gospodarczego w Europie. Ocenia się, że w latach 2021-2027 inwestycje w badania naukowe, rozwój i innowacje wygenerują do 100 tysięcy nowych miejsce pracy w tych dziedzinach.

Jak UOKiK uratował Tomaszów?

Coraz częściej widzi się w Polsce ludzi w maskach antysmogowych, lecz noszenie niektórych ich modeli można by sobie darować.

Urząd Ochrony Konkurencji i Konsumentów już po raz drugi sprawdził, czy maski antysmogowe nas chronią. Okazuje się, że chronią – ale raczej marnie.
Fachowo są one nazywane półmaskami filtrującymi, a do kontroli wytypowali je inspektorzy Inspekcji Handlowej w IV kw. 2018 r. Wedle enuncjacji UOKiK, sprawa jest pierwszorzędnej wagi.

Ratunek dla 55 tysięcy

Jak oświadczył Marek Niechciał, prezes UOKiK, Inspekcja Handlowa w Poznaniu znalazła 4 modele półmasek, które chciał wprowadzić na rynek jeden z przedsiębiorców. Sprowadził on z Chin ponad 55 tys. sztuk.
– Zadeklarował , że maski przeszły badania w akredytowanym laboratorium w Unii Europejskiej, jednak jak się okazało, nie miało ono akredytacji do ich testowania. Tymczasem przedsiębiorcy powinni weryfikować, czy laboratoria posiadają akredytację do badania wprowadzanych przez nich produktów, w tym przypadku środków ochrony indywidualnej, którymi są półmaski filtrujące. Sprawdziliśmy te maski i okazało się, że nie spełniają wymagań. Dzięki naszym kontrolom 55 tys. wadliwych masek nie zostanie już sprzedanych konsumentom. Można powiedzieć, że ochroniliśmy wszystkich mieszkańców Tomaszowa Mazowieckiego, które znalazło się na liście najbardziej zanieczyszczonych miast – cieszy się prezes UOKiK Marek Niechciał.
Wprawdzie nie bardzo wiadomo, przed czym miałoby chronić zastąpienie choćby wadliwych masek niczym, ale mniejsza o szczegóły. Ważne, by 55 tys Polaków, nie tylko z Tomaszowa, dowiedziało się, kto tak zadbał o ich zdrowie, a może i życie.

Dobry zwyczaj – nie oddychaj

Jak obszernie wyjaśnia UOKiK, maski zostały pobrane z 13 sklepów budowlanych i hurtowni w 5 województwach. Łącznie kontrolerzy ocenili 21 modeli: 6 tylko pod kątem oznakowania, a 15 wysłano do laboratorium Centralnego Instytutu Ochrony Pracy, który sprawdził, czy spełniają trzy parametry: opór wdechu, przenikanie mgłą oleju parafinowego i przeciek wewnętrzny.
Niestety, efekty okazały się kiepskie. 6 masek miało negatywne wyniki podczas testów w laboratorium, a 11 było źle oznakowanych. W 2017 r., na 10 masek dwie nie przeszły badań.
Czyli, w miarę z nasilaniem się smogu w Polsce, pogarsza się jakość sprzętu mającego przed nim chronić.
Spośród tych sześciu zakwestionowanych masek, cztery nie spełniły jednego parametru, a dwie – aż dwóch.
Testy wykazały, że dwie maski nie przeszły badania na opór wdechu. Dwie kolejne słabo wypadły, gdy sprawdzano odporność na przenikanie mgłą oleju parafinowego. Oznacza to, że zanieczyszczenia w powietrzu łatwo zniszczyłyby filtr.
Ostatnie dwie maski wypadły najgorzej, ponieważ nie spełniły aż dwóch z trzech badanych parametrów. Nie przeszły testów na przenikanie mgłą oleju parafinowego i przeciek wewnętrzny. Inaczej mówiąc, były nieszczelne i miały słaby filtr.
Przedsiębiorca, który wprowadza maski do sprzedaży, musi pamiętać o tym, że powinny być odpowiednio oznakowane i przejść badania w akredytowanym laboratorium na terenie UE. Taka procedura kończy się wystawieniem tzw. deklaracji zgodności. Tymczasem 11 masek było źle oznakowanych.
Brakowało danych producenta lub informacji o tym, czy jest to maska jedno- czy wielorazowa. W 9 przypadkach problematyczna była też deklaracja zgodności – brakowało jej, nie miała wszystkich danych lub została wystawiona przez nieuprawniony podmiot.

Niewiele im grozi

UOKiK nie puści płazem wszystkich tych nieprawidłowości.
Urząd planuje wszcząć 8 postępowań wobec przedsiębiorców, którzy wprowadzili do obrotu te sześć masek, co nie przeszły testów w laboratorium.
Tak samo będzie w przypadku dwóch, które były źle oznakowane, a ich producenci dobrowolnie tego nie poprawili.
Postępowania mogą zakończyć się nakazem wycofania wadliwych masek i powiadomieniem o tym konsumentów.
Zgodnie ze zmianami w prawie, kary finansowe do 100 tys. zł pojawią się, gdy producent lub importer wprowadzili maski niezgodne z wymaganiami na polski rynek po 19 lipca 2018 r. Jeśli wcześniej – można im nakukać.

Istotne litery

Inspekcja Handlowa współpracuje też z organami celnymi i ocenia, czy maski, które przedsiębiorca chce wprowadzić na rynek, mogą przekroczyć polską granicę.
W ubiegłym roku inspektorzy IH wydali trzy negatywne opinie, dzięki którym nie wpuszczono do Polski kolejnych prawie 6 tys. sztuk masek – a więc UOKiK może sobie zaliczyć kolejne miasteczko uratowanych Polaków.
Warto wiedzieć, że kupując maskę antysmogową warto sprawdzić jej oznaczenia. Symbole FFP1, FFP2, FFP3 – to klasa ochrony filtra: najsłabsza to 1, najwyższa – 3.
Ważne są też inne litery. Jeśli NR – to półmaska jednorazowego użytku – nie zakładajmy jej ponownie i nie nośmy dłużej niż 8 godzin. Jeśli R – to jest to półmaska wielokrotnego użytku.
Litera D oznacza zaś, że półmaska pozytywnie przeszła badanie na zatkanie pyłem dolomitowym. Warto ją wybierać, jeśli planuje się przez dłuższy czas pracować w zapylonym pomieszczeniu, na przykład podczas remontu.

U nas mogą być gorsze

Zachodni producenci rzeczywiście sprzedają w Polsce wyroby, mające niższą jakość niż identyczne, sprzedawane u nich. NIK uważa, że trzeba im na to pozwolić.

Polacy od zawsze uważają, że szereg artykułów – zwłaszcza spożywczych i służących utrzymaniu czystości – dostarczanych na nasz rynek przez zachodnie firmy ma gorszą jakość, niż te same artykuły obecne na rodzimych rynkach tychże firm.
Przedstawiciele zachodnich firm od zawsze odpowiadają zaś, że nic podobnego, jakość zawsze jest na wszystkich rynkach identyczna, co najwyżej skład niektórych produktów może się minimalnie różnić, ze względu na nieco odmienne upodobania grup konsumentów w różnych krajach.
To oczywiście lipa, bo wiadomo, że nikt przecież nie bada, jaki skład takiego czy innego produktu bardziej odpowiada Polakom, a jaki np. Niemcom czy Francuzom.
Wiadomo też, że jeśli chodzi o proszki i płyny do prania czy zmywania, to rzeczywiście, te proszki, które firmy zachodnie sprzedają w Polsce, są gorsze od identycznie nazywanych i opisywanych proszków, sprzedawanych na zachodzie.
W tym przypadku nasza powszechna opinia okazała się słuszna, choć przedstawiciele zachodnich firm produkujących chemię domowa nadal utrzymują, że tak nie jest. Oczywiste jednak, że „chemia domowa z Niemiec” jest lepsza niż ta sama chemia domowa, wytwarzana przez niemieckie firmy w Polsce lub eksportowana na nasz rynek. Inna sprawa, czy różnica w jakości rzeczywiście jest tak znacząca, że warto za nią przepłacać.

Jaki olej woli Polak?

Pojawiają się też pierwsze twarde dowody na to, że niektóre zachodnie artykuły spożywcze sprzedawane w Polsce są bardziej dziadowskie, niż zachodnie artykuły spożywcze sprzedawane na zachodzie.
W ciągu dwóch ostatnich lat nasza Inspekcja Handlowa porównała jakość produktów oferowanych konsumentom z Polski i Europy Zachodniej. Sprawdzono jakość 101 par identycznych produktów. Istotne różnice dotyczyły 12 produktów. Te co trafiały do nas, były oczywiście gorsze.
Inspekcja Handlowa enigmatycznie stwierdza: „Częściej niższą jakość wykazywały produkty przeznaczone na polski rynek”.
I tak na przykład, według wyników badań przeprowadzonych przez Inspekcję Handlową, niemieckie chipsy paprykowe Crunchips sprzedawane w Polsce były smażone na oleju palmowym, zawierały glutaminian monosodowy oraz miały wyższą zawartość tłuszczu.
Tymczasem niemieckie chipsy Crunchips sprzedawane w Niemczech smażone były na oleju słonecznikowym, bez wzmacniacza smaku.
Jedna z czekolad z orzechami firmy Milka kupiona w polskim sklepie miała mniej orzechów niż ta sama Milka z rynku niemieckiego, a herbatniki w Polsce miały nieco większe opakowanie, ale za to zawierały o 25 g produktu mniej niż w Niemczech.
Kawa Nescafe Classic jest zaś mocniejsze w Niemczech niż w Polsce.
Wiadomo, że w tych i dziesiątkach innych przypadków nikt przecież nie badał upodobań polskich konsumentów i nie sprawdzał, czy bardziej wolą oni czipsy na oleju palmowym od czipsów na oleju słonecznikowym. Ani czy rzeczywiście bardziej im smakuje czekolada orzechowa z małą liczbą orzechów albo kawa słabsza od mocniejszej.

Wszystko nam można wcisnąć

Chodzi wyłącznie o to, że kierownictwa dużych zachodnich firm są przekonane, że w Polsce bez problemów można sprzedawać gorsze produkty za taką samą bądź wyższą cenę niż u siebie, bo polscy klienci nie są zbyt wybredni, ani nie zauważą różnicy. I przez długi czas mieli oni rację.
Ostatnie lata przyniosły jednak wzmożone wyjazdy Polaków za granicę, pojawiły się znacznie szersze możliwości porównywania róznych wyrobów u nas i u nich – i okazało się, że coraz częściej wydaje nam się, iż dostrzegamy różnice. A teraz, wiadomo już, że te różnice rzeczywiście istnieją.
I niczego tu nie zmienia fakt, że w dwóch z 12 identycznych produktów, różniących się jakością, lepsze były te przeznaczone na polski rynek. Czekolada Milka Oreo produkowana dla polskiego konsumenta zawierała mniej zamiennika tłuszczu kakaowego i miała lepszą jakość od tej samej czekolady sprzedawanej w Niemczech; natomiast napój Capri Sun Orange oferowany w Polsce miał w sobie 20 proc. soku pomarańczowego, podczas gdy ten sam napój ze sklepu w Niemczech, tylko 7 proc. soku pomarańczowego.
Z badania przeprowadzonego przez Inspekcję Handlową wynika także, że 22 produkty były droższe w Polsce niż w Niemczech – choć to Niemcy zarabiają lepiej od Polaków.
Urząd Ochrony Konkurencji i Konsumentów, nie chcąc zadrażnień z wielkimi niemieckimi firmami zastrzega, że próba badania jest jednak zbyt mała, żeby odnosić ją do całego rynku – i na tej podstawie stwiedzać, że ich produkty sprzedawane u nas są gorsze od ich produktów sprzedawanych u nich.
UOKiK zapowiada, że wyniki testów porównawczych przperowadzonych przez Inspekcję Handlową przekaże do Komisji Europejskiej, która od pewnego czasu zajmuje się problemem podwójnej jakośći żywności na rynkach Unii Europejskiej. UOKiK, delikatnie mówiąc, nie wykazuje tu specjalnego pośpiechu, bo testy zostały zakończone już kilka miesiecy temu i było aż nadto czasu, by je przesłać komu trzeba.
Już wcześniej niż w Polsce, podobne testy porównawcze produktów zostały przeprowadzone także w innych państwach członkowskich z Europy Środkowo – Wschodniej, czyli w Chorwacji, Czechach, Słowacji i na Węgrzech. Także stwierdzono w nich, że istnieje zjawisko podwójnej jakości.

Róbta tak dalej

Komisja Europejska, w której pierwsze skrzypce grają bogate, zamożne państwa zachodnie, ma pewien problem. Wiadomo przecież, że nie skrytykuje zachodnioeuropejskich producentów, a z drugiej, nie może całkiem zignorować jednoznacznych badań przeprowadzonych na wschodzie.
KE twierdzi zatem, że swobodny przepływ towarów nie oznacza koniecznie, że wszystkie produkty muszą być identyczne. Przedsiębiorcy mogą sprzedawać towary o różnym składzie lub właściwościach, pod warunkiem że w pełni przestrzegają ustawodawstwo UE.
Zdaniem Komisji, nawet produkty sprzedawane pod tą samą marką mogą mieć różne cechy uzasadnione czynnikami, takimi jak miejsce wytworzenia lub preferencje klientów. Jednak, z drugiej strony, to, co według KE może niepokoić, to wprowadzanie do obrotu towarów pod tą samą marką, ale z różnym składem, w sposób, który może wprowadzać konsumenta w błąd.
Komisja Europejska zastrzega więc, że w Unii, w której wszyscy są równi, nie może być konsumentów drugiej kategorii. W sukurs Komisji idzie nasza Najwyższa Izba Kontroli, która, broniąc zachodnich producentów, wskazuje, że organy kontroli nie mogą zakazać oferowania wyrobów, które spełniają wszystkie wymagania, tylko dlatego, że w Polsce mają one inny poziom jakości, np. inną zawartość tłuszczu, czy inną substancję słodzącą.