O NAS

 

W ostatnich latach można zauważyć bardzo dynamiczny rozwój algorytmów służących do analizy danych ustrukturyzowanych i nieustrukturyzowanych. Stanowi to wielką szanse dla firm, które mogą jeszcze lepiej zrozumieć i zdyskontować gromadzone dane. Aby w pełni wykorzystać potencjał drzemiący w danych oraz algorytmach służących do ich analizy konieczne jest wdrożenie adekwatnych narzędzi. Wybrane narzędzia należy osadzić w odpowiednio przygotowanym środowisku, aby umożliwić im wydajną pracę.

Specjalizujemy się w dostarczaniu, uznanych na świecie rozwiązań analitycznych, które umożliwiają wykorzystanie potencjału drzemiącego w zbiorach danych.

Budujemy rozwiązania w sposób, który nie byłby możliwy w przypadku współpracy z gigantami branży IT, ponieważ łączymy wiedzę, wieloletnie doświadczenia z niezbędną elastycznością i szybkością działania. Algomine to mądry wybór dla tych, którzy wiedzą, czego chcą, oczekują profesjonalizmu, dostarczenia jakości na czas.

Wspieramy kompleksowo naszych klientów od etapu instalacji i pozyskania danych, aż do asysty powdrożeniowej oraz szkoleń.

 

WŚRÓD NASZYCH KLIENTÓW SĄ FIRMY

Jesteśmy autoryzowanym partnerem


IBM_BP2



Tableau Partner Algomine




NASZE USŁUGI

Zespół wdrożeniowy stanowią wykwalifikowani konsultanci posiadający wieloletnie doświadczenie oraz certyfikaty produktowe.


 

 

Dojrzałe środowisko analityczne powinno umożliwić pełne wykorzystanie potencjału analitycznego narzędzi typu open source, takich jak:

 

Python, R

R i Python to najpopularniejsze w świecie Data Science języki programowania, wykorzystywane w rozwiązaniach machine learning i deep learning. Znajdują zastosowanie przy budowie modeli predykcyjnych, systemach rekomendacyjnych, a także przy rozpoznawaniu obrazu i dźwięku. Oba narzędzia opierają się o licencje open source. Zaletą otwartych licencji jest szeroka i aktywna społeczność użytkowników, którzy wykorzystują narzędzia w celach biznesowych i akademickich udostępniając jednocześnie wypracowane rozwiązania w postaci ogólnodostępnych pakietów funkcji. Jakość pakietów jest na bieżąco weryfikowana przez użytkowników i ekspertów w rzeczywistych scenariuszach naukowych i biznesowych. Pakiety funkcji pozwalają na wykorzystanie najnowszych algorytmów i bibliotek (np. SciPy, NumPy, Pandas) bez konieczności oczekiwania na wdrożenie ich przez producentów dedykowanych narzędzi.

TensorFlow

TensorFlow to zestaw bibliotek stworzony przez firmę Google, a rozpowszechniany od 2015 roku w ramach licencji open source, przeznaczonych do rozwoju uczenia maszynowego. TensorFlow udostępnia m.in. modele głębokich sieci neuronowych, które znajdują zastosowanie w rozpoznawaniu obrazów, pisma odręcznego, a także analizie mowy i tekstu. Sieci neuronowe pozwalają wykrywać wzorce i korelacje w sposób analogiczny do pracy ludzkiego mózgu.

H2O

H2O to szeroko używana przez największe firmy technologia uczenia maszynowego, skoncentrowana m. in. na deep learningu. Platforma obsługuje zbiory danych, które są zbyt duże dla rozwiązań R i Python. Technologia H2O wykorzystywana jest m.in. do scoringu modeli zbudowanych w tych językach. Jej cechą charakterystyczną jest iteracyjny styl nauki modeli, który pozwala przerwać naukę modelu w suboptymalnym punkcie i wdrożyć go, w przypadku gdy szukanie optimum okaże się zbyt kosztowne lub czasochłonne.

Spark

Apache Spark to rozwijana na zasadach open source platforma klastrowego przetwarzania danych ogólnego zastosowania, wyposażona w funkcję in-memory na potrzeby przetwarzania zbiorów Big Data oraz interfejsy API dla języków Python, R, Scala i Java. Wieloetapowe przetwarzanie odbywa się w większości w pamięci operacyjnej, co przekłada się na znaczne korzyści wydajnościowe w porównaniu z konkurencyjnymi rozwiązaniami. Wyraźne ograniczenie czasu obliczeń można zauważyć np. w przypadku algorytmów iteracyjnych lub interaktywnej eksploracji danych.

 

 

Osadzenie narzędzi Data Science w optymalnym środowisku analitycznym pozwoli w pełni wykorzystać ich potencjał. Nowoczesne środowiska analityczne budowane są w oparciu o mechanizm konteneryzacji.

Konteneryzacja umożliwia uruchomienie wskazanych procesów aplikacji w wydzielonych kontenerach, które z punktu widzenia aplikacji są odrębnymi instancjami środowiska. Odrębne kontenery działać będą na pojedynczej maszynie korzystając z tego samego jądra systemu operacyjnego.

Podejście to gwarantuje znacząco wyższą wydajność, niż w przypadku tradycyjnej wirtualizacji. Jako platformę konteneryzacyjną wykorzystuje się platformę Docker

 

Docker

Docker to otwarta platforma umożliwiająca tworzenie aplikacji rozproszonych. Umożliwia na umieszczenie programu i niezbędnych bibliotek w lekkim, wirtualnym kontenerze, co pozwala na uruchomienie go na większości serwerów Linux. Na jednej maszynie może znajdować się wiele kontenerów, a każdy z nich korzysta z systemu operacyjnego maszyny, na której się znajduje. Kontenery rozdzielają od siebie aplikacje i infrastrukturę na której się znajdują, zapewniając tym samym bezpieczeństwo środowiska w którym pracują.

Kubernetes

Kubernetes jest systemem open source do zarządzania skonteneryzowanymi aplikacjami, skalowania i automatyzacji wdrożeń. Kubernetes grupuje tworzące aplikację kontenery w jednostki logiczne, co ułatwia zarządzanie nimi. Rozwiązanie cechuje się ogromną skalowalnością, elastycznością i nieograniczonymi możliwościami wzrostu.

Repozytorium kodu Git

Dodatkowym elementem projektowanego środowiska jest repozytorium kodu, gdzie przechowywane będą skrypty tworzone przez analityków. Repozytorium kodu Git to system kontroli wersji, pozwalający na zarządzanie historią kodu źródłowego, śledzenie zmian w plikach, łączenie modyfikacji w kodzie dokonanych przez wielu użytkowników a także odtworzenie dowolnej wcześniejszej wersji.

Jenkins

Kolejnym elementem środowiska analitycznego jest narzędzie do automatyzacji procesu budowy kontenerów – Jenkins, który zaopatruje kontenery w najnowsze biblioteki. Jenkins pozwala na ciągłą integrację (CI) kodu pochodzącego od różnych programistów. Po każdej odnotowanej w systemie kontroli wersji lub zmianie w projekcie aplikacja jest przebudowywana i wykonuje się na niej testy.

Repozytorium analityczne

Środowisko zintegrowane zostanie z repozytorium analitycznym - hurtownią danych. Jako repozytorium analityczne mogą zostać wykorzystane bazy danych takie jak: Vertica, DB2, Netezza lub SAP Hana Ponadto, przy konfiguracji, środowisko wyposażone zostaje w biblioteki pozwalające przenieść ciężar obliczeń wywołanych skryptami R i Python na bazę danych (Pushback).

Akceleracja sprzętowa

Wzrost wydajności środowiska i narzędzi Data Science można osiągnąć używając dedykowanego sprzętu do obliczeń Machine Learning i AI w postaci np. kart Nvidia Tesla. Są to urządzenia mogące znacznie przyspieszyć czasy budowania modeli w H2O oraz innych narzędziach. Dla jednoczesnej pracy wielu użytkowników wskazane jest wykorzystanie wielu niezależnych procesorów GPU.


Główne korzyści:

  • Autonomiczność - Narzędzia open source pozwalają na wykorzystanie najnowszych technik i algorytmów analitycznych bez konieczności oczekiwania na wdrożenie ich przez producentów dedykowanych narzędzi.

  • Szybkość - Zastosowanie rozwiązań H2O, Spark czy GPU zapewnia znaczne zwiększenie wydajności i przyspieszenie obliczeń.

  • Elastyczność - Elastyczność wynikająca z konteneryzacji to dynamicznie dzielone zasoby mocy obliczeniowej. Ponadto, dostęp do kodu źródłowego umożliwia dopasowanie oprogramowania do indywidualnych potrzeb i rozbudowę o nowe funkcjonalności.

  • Bezpieczeństwo - Dostępny kod źródłowy pozwala na szybkie wykrycie błędów i zapewnia jawność funkcjonowania oprogramowania.

  • Redukcja kosztów - Narzędzia open source to brak opłat licencyjnych za oprogramowanie.

AKTUALNOŚCI

Nowe biuro Algomine

Z przyjemnością informujemy że od kwietnia jesteśmy już w nowej lokalizacji z przepięknym widokiem na centrum Warszawy. Warsaw Trade Tower ul. Chłodn

Webinarium - Poznaj swojego Klienta, analiza w branży handlowej

Gromadzone przez większość firm dane transakcyjne stanowią kopalnie wiedzy o zachowaniach Klientów. Na podstawie analiz transakcji i zachowań klientów...

Webinarium - jak przygotować się do analizy?

W dzisiejszych realiach prawie nigdy nie zdarza się, że wszystkie interesujące nas dane zapisane są w jednej tabeli. Na szczęście wykorzystując narzęd

Warsztaty Tableau w Warszawie

Serdecznie zapraszamy na Tableau Experience w Warszawie -  12 kwietnia! Chcemy pokazać uczestnikom, że dzięki odpowiedniej analizie danych mogą uzy

Algomine Złotym Partnerem IBM

Z dumą informujemy, że nasze kompetencje w obszarze analityki biznesowej zostały docenione i nasza firma została wyróżniona znakiem ZŁOTEGO PARTNER...

Otwarte szkolenie z IBM SPSS Statistics

Celem szkolenia jest zapoznanie użytkowników z narzędziem IBM SPSS Statistics, omówienie funkcjonalności służących przygotowaniu danych do analizy ora

REKRUTUJEMY

Chcesz się rozwijać w zakresie analizy danych, Business Intelligence i Big Data? Dołącz do naszego zespołu! Aktualnie poszukujemy:


Osoby zainteresowane ofertą proszone są o przesłanie CV na adres: rekrutacja@algomine.pl.
W temacie maila prosimy o podanie numeru referencyjnego.

Prosimy o dopisanie następującej klauzuli: "Wyrażam zgodę na przetwarzanie moich danych osobowych przez Administratora Danych Osobowych - ALGOMINE spółka z ograniczoną odpowiedzialnością spółka komandytowa z siedzibą w Warszawie (00-193), ul. Stawki 2A/129, KRS: 0000567190, NIP: 5252624300, REGON: 362076534 dla potrzeb niezbędnych do realizacji procesu rekrutacji. Podaję dane osobowe dobrowolnie i oświadczam, że są one zgodne z prawdą.”

BRANŻE

Zebrane doświadczenie ułatwia nam rozwiązywanie problemów, z którymi spotykają się pracownicy zespołów analitycznych i biznesowych firm działających w różnych sektorach rynku.


ROZWIĄZANIA

Rozwiązania są pochodną wieloletnich doświadczeń zdobytych w projektach obejmujących analizę predykcyjną oraz modelowanie dużych i rzeczywistych zbiorów danych.


CRM ANALITYCZNY

CRM ANALITYCZNY

Wsparcie kampanii marketingowych modelami predykcyjnymi wpływa na wzrost jej skuteczności oraz obniżenie kosztów. Dodatkowo, analityka pomaga dobrać dla każdego klienta odpowiedni moment, kanał i styl komunikacji.
 Więcej 

ANALIZY PREDYKCYJNE KLIENTA

ANALIZY PREDYKCYJNE KLIENTA

IBM Predictive Customer Intelligence personalizuje interakcje z klientami, przedstawiając rekomendacje oparte na zachowaniach zakupowych, aktywności internetowej i społecznościowej oraz innych czynnikach unikalnych dla konkretnego klienta.
 Więcej 

PROGNOZOWANIE POPYTU I OPTYMALIZACJA

PROGNOZOWANIE POPYTU I OPTYMALIZACJA

Poszczególne moduły rozwiązania umożliwiają tworzenie modeli szeregów czasowych na potrzeby prognozowania, dokonywanie korekt eksperckich oraz wykorzystanie prognoz w procesie optymalizacji. W efekcie koszty magazynowania maleją, a dostępność kluczowych produktów wzrasta.
 Więcej 

PREDICTIVE MAINTENANCE

PREDICTIVE MAINTENANCE

Dzięki połączeniu zaawansowanych modeli predykcyjnych z wiedzą ekspercką możliwe jest stworzenie rozwiązania pozwalającego na zmniejszenie liczby awarii i przestojów, wydłużenie cyklu życia poszczególnych aktywów, zrozumienie przyczyn usterek i obniżenie związanych z nimi kosztów.
 Więcej 

PRZECIWDZIAŁANIE NADUŻYCIOM I PRANIU BRUDNYCH PIENIĘDZY

PRZECIWDZIAŁANIE NADUŻYCIOM I PRANIU BRUDNYCH PIENIĘDZY

Zmniejszenie strat związanych z oszustwami oraz kosztów ich wykrywania możliwe jest dzięki połączeniu szerokiego spektrum modeli predykcyjnych ze zgromadzonymi przez lata doświadczeń regułami eksperckimi. Proponowane rozwiązanie umożliwia detekcję zdarzeń podejrzanych w czasie rzeczywistym.
 Więcej 

ANALIZY BIG DATA

ANALIZY BIG DATA

Big Data stanowi wyzwanie, ale w zamian oferuje ogromne możliwości. Aby sprostać owemu wyzwaniu, tradycyjne podejście do modelowania danych musi zostać wzbogacone o analizę nieustrukturyzowanych danych z wielu różnych źródeł, jak na przykład logi stron www, transkrypcje rozmów z centrów obsługi klienta, fora internetowe. Dane te gromadzone są m.in. na platformie Hadoop.
 Więcej 

NASZA IDEA TO:

„Pomóc użytkownikom dostrzec i zrozumieć dane”
- sprawić, by bazy danych i arkusze kalkulacyjne stały się zrozumiałe dla zwykłych ludzi.

IBM SPSS

Zaawansowane analizy statystyczne, ekonometryczne, predykcja, data mining.


IBM SPSS to czołowe, cenione na świecie oprogramowanie, które umożliwia odkrywanie wzorców i trendów w ustrukturyzowanych i nieustrukturyzowanych danych przy użyciu intuicyjnego interfejsu wizualnego i wsparciu zaawansowanych metod analitycznych m. in. do: predykcji (kampanie marketingowe i retencyjne), analizy skupień (segmentacje), szeregi czasowe (prognozowanie popytu) czy analiza asocjacji (mechanizm rekomendacji).


Odkrywanie ukrytych dotąd zależności, pozwala przewidywać zachowanie klientów i umożliwia spersonalizowane podejście przy jednoczesnej redukcji kosztów i zwiększeniu poziomu lojalności klienta.
 

    Dowiedz się więcej    

 

TABLEAU

Samoobsługowa wizualizacja i odkrywanie danych, szybka i intuicyjna analiza biznesowa, visual analytics, data discovery


Tableau bazuje na przełomowej metodzie, uzyskanej po wielu latach badań na Uniwersytecie Stanforda nad wsparciem naturalnej zdolności człowieka do percepcji danych liczbowych i analizowania wizualnego. Wykorzystuje technologie analizowania danych metodą „przeciągnij i upuść” (drag & drop) w celu podążania za naturalnym sposobem myślenia człowieka, dostarczając zarazem całą gamę bogatych wizualizacji i dashboardów.


Dzięki VizQL, szybka analiza i wizualizacja stały się rzeczywistością. Osoby nawet bez przeszkolenia mogą zobaczyć i zrozumieć dane szybciej niż kiedykolwiek i w sposób, który nigdy dotąd nie był możliwy. To jest właśnie największy wyróżnik i atut Tableau.
 

    Dowiedz się więcej    

 

 

VERTICA

Bez trudu przeanalizuje szerokie na tysiące kolumn tabele zawierające miliardy rekordów. Niezrównana wydajność w świecie Big Data.


Jeśli chcesz zbudować hurtownię danych, przeliczać datamarty, albo po prostu analizować dane, których wolumen przekracza kilka TB, to potrzebujesz analitycznej bazy danych (Analytical RDBMS). Jeśli ponadto zastanawiasz się, jakich narzędzi tej klasy używają tak nowoczesne firmy jak Facebook czy Uber to musisz poznać rozwiązanie Vertica.


Vertica to narzędzie wymyślone do składowania i analizowania olbrzymich ilości danych. Niezależnie czy posiadasz 5 TB czy 500 TB danych, dla Vertica nie jest to problemem. Kolumnowa kompresja danych powoduje, że będziesz potrzebować dużo mniej sprzętu niż w innych rozwiązaniach. Ponadto rozwiązanie jest na tyle jest elastyczne, że działa zarówno na sprzęcie dowolnego producenta, jak i w chmurze.

    Dowiedz się więcej    

IBM iLog

Poszukiwanie najlepszego rozwiązania poprzez optymalizację dowolnych procesów biznesowych przy zadanych ograniczeniach


IBM iLog to środowisko służące budowie modeli optymalizacyjnych, które rekomendują optymalne rozwiązania biorąc pod uwagę reguły biznesowe, dostępne zasoby, ograniczenia i cele. Środowisko udostępnia pakiet narzędzi do analitycznego wspomagania procesów decyzyjnych, który umożliwia szybkie tworzenie i wdrażanie modeli optymalizacyjnych przy użyciu technik programowania matematycznego i programowania z ograniczeniami.


Narzędzia optymalizacyje znajdują szczególne zastosowanie w planowaniu biznesowym, harmonogramowaniu, pricingu, planowaniu tras, zarządzaniem zapasami i wszędzie tam, gdzie problemów operacyjnych nie da się rozwiązać ani przy użyciu karki papieru, ani przy użyciu arkusza kalkulacyjnego.
 

    Dowiedz się więcej    

 

 

SPSS to wiodące rozwiązanie z dziedziny analiz statystycznych i predykcyjnych.

47
LAT DOŚWIADCZEŃ
250000
KLIENTÓW
100
KRAJÓW

SZKOLENIA

Szkolenia z IBM SPSS

Szkolenia z IBM SPSS

Nasz autorski program szkoleniowy stworzony na bazie wieloletnich doświadczeń. Zagadnienia pogrupowane zostały w moduły dostosowane do użytkowników o różnych potrzebach i różnym stopniu zaawansowania. Istnieje także możliwość skomponowania indywiduanego programu szkolenia.

  Szczegółowy opis  


Szkolenia z Tableau

Szkolenia z Tableau

Kurs wprowadzający w zagadnienia użytkowania systemu do szybkiej wizualizacji Tableau. Zagadnienia pogrupowane zostały w moduły dostosowane do użytkowników o różnych potrzebach i różnym stopniu zaawansowania. Istnieje także możliwość skomponowania indywiduanego programu szkolenia.

  Szczegółowy opis  


Szkolenia z IBM iLog

Szkolenia z IBM iLog

Pierwszym etapem szkolenia jest wprowadzenie do programowania matematycznego. W dalszych częściach szkolenia użytkownicy uczą się narzędzia i budują pierwsze modele optymalizacyjne. Ostatnia część szkolenia poświęcona jest integracji ze środowiskiem IBM SPSS.

  Szczegółowy opis  


Znajdź nas w sieci   

KONTAKT

DZIAŁ SPRZEDAŻY

  • +48 691 411 631
  • kontakt@algomine.pl

DZIAŁ SZKOLEŃ

  • +48 606 390 475
  • szkolenia@algomine.pl

DZIAŁ WSPARCIA

  • wsparcie@algomine.pl

ALGOMINE

  • biuro@algomine.pl
  • Warsaw Trade Tower
    ul Chłodna 51, 36 piętro
    00-867 Warszawa

  • Algomine sp. z. o.o. sp. k.
    NIP 525-262-43-00
    REGON 362076534
    KRS 0000567190