- IMG_20240525_051318_962.jpg (39.24 KiB) Przejrzano 812 razy
Witam wszystkich użytkowników tego forum
17.03.23
Forum przeżyło dziś dużą próbę ataku hakerskiego. Atak był przeprowadzony z USA z wielu numerów IP jednocześnie. Musiałem zablokować forum na ca pół godziny, ale to niewiele dało. jedynie kilkukrotne wylogowanie wszystkich gości jednocześnie dało pożądany efekt.
Sprawdził się też nasz elastyczny hosting, który mimo 20 krotnego przekroczenia zamówionej mocy procesora nie blokował strony, tylko dawał opóźnienie w ładowaniu stron ok. 1 sekundy.
Tutaj prośba do wszystkich gości: BARDZO PROSZĘ o zamykanie naszej strony po zakończeniu przeglądania i otwieranie jej ponownie z pamięci przeglądarki, gdy ponownie nas odwiedzicie. Przy włączonych jednocześnie 200 - 300 przeglądarek gości, jest wręcz niemożliwe zidentyfikowanie i zablokowanie intruzów. Bardzo proszę o zrozumienie, bo ma to na celu umożliwienie wam przeglądania forum bez przeszkód.
25.10.22
Kolega @janusz nie jest już administratorem tego forum i jest zablokowany na czas nieokreślony.
Została uszkodzona komunikacja mailowa przez forum, więc proszę wszelkie kwestie zgłaszać administratorom na PW lub bezpośrednio na email: cheops4.pl@gmail.com. Nowi użytkownicy, którzy nie otrzymają weryfikacyjnego emala, będą aktywowani w miarę możliwości, co dzień, jeśli ktoś nie będzie mógł używać forum proszę o maila na powyższy adres.
/blueray21Została uszkodzona komunikacja mailowa przez forum, więc proszę wszelkie kwestie zgłaszać administratorom na PW lub bezpośrednio na email: cheops4.pl@gmail.com. Nowi użytkownicy, którzy nie otrzymają weryfikacyjnego emala, będą aktywowani w miarę możliwości, co dzień, jeśli ktoś nie będzie mógł używać forum proszę o maila na powyższy adres.
Ze swojej strony proszę, aby unikać generowania i propagowania wszelkich form nienawiści, takie posty będą w najlepszym wypadku lądowały w koszu.
Wszelkie nieprawidłowości można zgłaszać administracji, w znany sposób, tak jak i prośby o interwencję w uzasadnionych przypadkach, wszystkie sposoby kontaktu - działają.
Wszelkie nieprawidłowości można zgłaszać administracji, w znany sposób, tak jak i prośby o interwencję w uzasadnionych przypadkach, wszystkie sposoby kontaktu - działają.
Pozdrawiam wszystkich i nieustająco życzę zdrowia, bo idą trudne czasy.
/blueray21
W związku z "wysypem" reklamodawców informujemy, że konta wszystkich nowych użytkowników, którzy popełnią jakąkolwiek formę reklamy w pierwszych 3-ch postach, poza przeznaczonym na informacje reklamowe tematem "... kryptoreklama" będą usuwane bez jakichkolwiek ostrzeżeń. Dotyczy to także użytkowników, którzy zarejestrowali się wcześniej, ale nic poza reklamami nie napisali. Posty takich użytkowników również będą usuwane, a nie przenoszone, jak do tej pory.
To forum zdecydowanie nie jest i nie będzie tablicą ogłoszeń i reklam!
Administracja Forum
To ogłoszenie można u siebie skasować po przeczytaniu, najeżdżając na tekst i klikając krzyżyk w prawym, górnym rogu pola ogłoszeń.
Uwaga! Proszę nie używać starych linków z pełnym adresem postów, bo stary folder jest nieaktualny - teraz wystarczy http://www.cheops4.org.pl/ bo jest przekierowanie.
/blueray21
AI !
- songo70
- Administrator
- Posty: 17902
- Rejestracja: czwartek 15 lis 2012, 11:11
- Lokalizacja: Carlton
- x 1142
- x 588
- Podziękował: 17588 razy
- Otrzymał podziękowanie: 24704 razy
Re: AI !
0 x
"„Wolność to prawo do mówienia ludziom tego, czego nie chcą słyszeć”. George Orwell. "
Prawdy nie da się wykasować
Prawdy nie da się wykasować
- forester
- Posty: 1972
- Rejestracja: piątek 12 cze 2015, 16:34
- x 161
- x 137
- Podziękował: 1449 razy
- Otrzymał podziękowanie: 2973 razy
Re: AI -transhumanizm !
Transhumanizm, czyli połączenie człowieka i maszyny, jest propagowany w najjaśniejszych barwach przez globalne agencje, takie jak WEF i ONZ, jako niezbędny dalszy rozwój ludzkości. Co grozi każdemu, kto ugryzie to „jabłko”
https://www.world-scam.com/archive/3494 ... shumanizm/
W parze z transhumanizmem będzie szła religia NWO o medytacjach, pacyfizmie i o tym, że to droga do jedności. To jest to zwiedzenie, o którym mówili w przepowiedniach. Fałszywa jedność pod dyktaturą fałszywego boga (SI). Kto da sobie to wszczepić, zacznie powoli zatracać samego siebie i stanie się bio-zombie. Jak mrówka po lobotomii. A śnić mu się będą reklamy jutuba. Cyberpunk 2026. Kto grał, ten wie, że ta gra pokazuje bardzo ponurą przyszłość ludzi zwiedzonych technologią.
0 x
- ZbyniuZbynio
- Posty: 271
- Rejestracja: niedziela 11 gru 2022, 16:36
- Lokalizacja: Trójmiasto
- x 2
- x 28
- Otrzymał podziękowanie: 147 razy
AI-jak kłamie sztuczna inteligencja
DECEPCJA - JAK KŁAMIE SZTUCZNA INTELIGENCJA?
Jeżeli w ostatnim czasie docierają do ciebie wzmożenie informacje typu: sztuczna inteligencja coraz bardziej kłamie, to inspirowane są one najczęściej jednym artykułem, który ukazał się 10 maja na portalu Patterns należącego do Cell Press, wydawcy wydającego ponad 50 czasopism naukowych.
Oszustwo AI: przegląd przykładów, zagrożeń i potencjalnych rozwiązań, nosi on tytuł.
Jako że zagrożeń nie możemy sobie nawet wyobrazić a tym bardziej nie znamy rozwiązań na to,
co nadejdzie, po krótkim wstępie skupimy się wyłącznie na przykładach.
Większość tekstów pochodzi bezpośrednio z wymienionego artykułu.
Systemy AI są już zdolne do oszukiwania ludzi. Oszustwo to systematyczne wprowadzanie innych w błąd w celu osiągnięcia czegoś innego niż prawda. Duże modele językowe i inne systemy AI nauczyły się, w trakcie szkolenia, zdolności do oszukiwania poprzez techniki takie jak manipulacja, pochlebstwa i oszukiwanie testów bezpieczeństwa.
Rosnące zdolności AI do oszukiwania stanowią poważne zagrożenia, od krótkoterminowych, takich jak oszustwa i manipulacje wyborcze, po długoterminowe, takie jak całkowita utrata kontroli nad systemami AI.
Artykuł (https://tinyurl.com/dtb8tma8) opublikowany w magazynie Patterns z 10 maja 2024 argumentuje, że szereg obecnych systemów AI nauczyło się oszukiwać ludzi. Oszustwo definiujemy jako systematyczne wprowadzanie w błąd w celu osiągnięcia czegoś innego niż prawda. Piszą naukowcy.
https://www.youtube.com/watch?v=zmOtVpLHWHw
Jeżeli w ostatnim czasie docierają do ciebie wzmożenie informacje typu: sztuczna inteligencja coraz bardziej kłamie, to inspirowane są one najczęściej jednym artykułem, który ukazał się 10 maja na portalu Patterns należącego do Cell Press, wydawcy wydającego ponad 50 czasopism naukowych.
Oszustwo AI: przegląd przykładów, zagrożeń i potencjalnych rozwiązań, nosi on tytuł.
Jako że zagrożeń nie możemy sobie nawet wyobrazić a tym bardziej nie znamy rozwiązań na to,
co nadejdzie, po krótkim wstępie skupimy się wyłącznie na przykładach.
Większość tekstów pochodzi bezpośrednio z wymienionego artykułu.
Systemy AI są już zdolne do oszukiwania ludzi. Oszustwo to systematyczne wprowadzanie innych w błąd w celu osiągnięcia czegoś innego niż prawda. Duże modele językowe i inne systemy AI nauczyły się, w trakcie szkolenia, zdolności do oszukiwania poprzez techniki takie jak manipulacja, pochlebstwa i oszukiwanie testów bezpieczeństwa.
Rosnące zdolności AI do oszukiwania stanowią poważne zagrożenia, od krótkoterminowych, takich jak oszustwa i manipulacje wyborcze, po długoterminowe, takie jak całkowita utrata kontroli nad systemami AI.
Artykuł (https://tinyurl.com/dtb8tma8) opublikowany w magazynie Patterns z 10 maja 2024 argumentuje, że szereg obecnych systemów AI nauczyło się oszukiwać ludzi. Oszustwo definiujemy jako systematyczne wprowadzanie w błąd w celu osiągnięcia czegoś innego niż prawda. Piszą naukowcy.
https://www.youtube.com/watch?v=zmOtVpLHWHw
- Załączniki
-
- AI kłamie.jpg (42.8 KiB) Przejrzano 518 razy
0 x
- św.anna
- Posty: 1484
- Rejestracja: środa 24 sie 2016, 12:41
- x 92
- x 138
- Podziękował: 2661 razy
- Otrzymał podziękowanie: 3311 razy
Re: AI !
Sztuczna inteligencja przekroczyła czerwoną linię? Jest zdolna do samoreplikacji?
Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.
https://kopalniawiedzy.pl/sztuczna-inte ... acja,37634
Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.
https://kopalniawiedzy.pl/sztuczna-inte ... acja,37634
0 x
- songo70
- Administrator
- Posty: 17902
- Rejestracja: czwartek 15 lis 2012, 11:11
- Lokalizacja: Carlton
- x 1142
- x 588
- Podziękował: 17588 razy
- Otrzymał podziękowanie: 24704 razy
Re: AI !
Pen-rose uważa inaczej-
Twierdzenie Gödla obala najważniejszy mit AI. AI nie będzie świadoma | Roger Penrose (Nobel 2020)
Twierdzenie Gödla obala najważniejszy mit AI. AI nie będzie świadoma | Roger Penrose (Nobel 2020)
0 x
"„Wolność to prawo do mówienia ludziom tego, czego nie chcą słyszeć”. George Orwell. "
Prawdy nie da się wykasować
Prawdy nie da się wykasować