Zarządzanie oparte na działaniach (ABM) to podejście do zarządzania, w którym kierownicy procesów otrzymują odpowiedzialność i uprawnienia do ciągłego doskonalenia planowania i kontroli operacji poprzez skupianie się na kluczowych działaniach operacyjnych. ABM strategicznie obejmuje analizę działań, rachunek kosztów działań (ABC), budżetowanie oparte na działaniach, koszty cyklu życia i docelowe, analizę wartości procesu i analizę łańcucha wartości. Oczekuje się zwiększonej skuteczności i wydajności zarówno w zakresie generowania przychodów, jak i ponoszenia kosztów. Ponieważ nacisk kładziony jest na działania, lepsze zarządzanie kosztami osiąga się poprzez lepsze zarządzanie działaniami, które pochłaniają zasoby i generują koszty. Nacisk na kontrolę przenosi się z finansowego pomiaru zasobów na działania, które powodują ponoszenie kosztów. Jako ogólna struktura, ABM opiera się na informacjach ABC. ABC zajmuje się analizą i przypisaniem kosztów. W celu wykonania analizy kosztów należy zidentyfikować i sklasyfikować działania. Można opracować słownik działań, zawierający listę i opis wszystkich działań w organizacji, w tym informacje o lokalizacji każdego działania, miarach wydajności oraz kluczowych atrybutach wartości dodanej i nienależących do wartości dodanej. Informacje ABC są niezwykle pomocne w analizie strategicznej takich obszarów, jak przeprojektowanie procesów i instalacji, ceny, wartości dla klientów, zaopatrzenie, ocena pozycji konkurencyjnej i strategia produktowa.
AKTYWNOŚĆ I ANALIZA AKTYWNOŚCI
Działanie jest zadaniem biznesowym lub agregacją ściśle powiązanych celowych działań, z wyraźnym punktem początkowym i końcowym, które pochłania zasoby i generuje wyniki. Działanie może być pojedynczym zadaniem lub prostym procesem. Zasoby to nakłady, takie jak materiały, robocizna, sprzęt i inne elementy ekonomiczne zużyte w ramach działalności związanej z wytworzeniem produktu. Produkty to produkty, usługi i towarzyszące informacje płynące z działania. W dążeniu do ciągłego doskonalenia biznesowego ogólne badanie zmian w wykonywaniu kluczowych czynności organizacyjnych i ich przyczyn jest nazywane analizą działań. Wyniki mierzy się za pomocą wskaźnika finansowego lub niefinansowego, który jest przyczynowo związany z wynikami (dodaniem wartości do produktu lub usługi) działalności i może służyć do zarządzania tą działalnością i jej poprawy. Poziom działalności w organizacji zależy od poziomu operacji obsługiwanych przez tę działalność. Na przykład działanie na poziomie jednostki to działanie wykonywane bezpośrednio na każdej jednostce wyniku procesu organizacyjnego. Czynność na poziomie partii to czynność wykonywana na małej grupie lub partii jednostek wyjściowych w tym samym czasie. Na przykład czynność konfiguracji polegająca na uruchomieniu zadania wsadowego w procesie produkcyjnym i związany z nią koszt ukończenia takiej konfiguracji jest działaniem na poziomie partii. Działanie mające na celu utrzymanie klienta wspiera pojedynczą osobę lub określoną grupę klientów, na przykład wysyłki lub obsługa klienta. Działanie polegające na utrzymaniu produktu wspiera pojedynczy produkt lub linię produktów, takie jak (przeprojektowanie) lub (przeprojektowanie) produktu. Te dwa ostatnie rodzaje działań są czasami nazywane działaniami podtrzymującymi usługi. Wreszcie, działanie utrzymujące obiekt wspiera cały zakład, na przykład działania kierownika całego zakładu, z powiązanym kosztem równym pakietowi wynagrodzeń zarządzającego. Nie każda działalność w organizacji jest na tyle znacząca, aby można ją było wyodrębnić w analizie działań. Proces to zbiór logicznie powiązanych czynności wykonywanych w celu osiągnięcia określonego celu, na przykład wytworzenia jednostki produktu lub usługi. Identyfikacja wszystkich takich procesów w organizacji wraz z określeniem relacji między nimi zapewnia łańcuch wartości. Łańcuchy wartości są często przedstawiane w kategoriach obszarów funkcjonalnych (funkcja zapewnia organizacji określony rodzaj usługi lub produktu, taki jak finanse, dystrybucja lub zakupy). W ramach każdego z tych kluczowych procesów czynności można sklasyfikować jako czynności podstawowe, czynności drugorzędne i inne. Podstawowa działalność bezpośrednio przyczynia się do dostarczenia końcowego produktu lub usługi. Działania drugorzędne bezpośrednio wspierają czynności podstawowe. Kategoria "inne działania" obejmuje te działania, które są zbyt odległe od zamierzonego produktu, aby można je było indywidualnie odnotować. Należy je zbadać, aby określić, czy są konieczne, i należy je kontynuować.
WARTOŚĆ DODANA I BEZ WARTOŚCI DODANEJ
Każde z kluczowych (pierwotnych i drugorzędnych) działań odnotowanych w naszej analizie należy sklasyfikować jako wartość dodaną lub bez wartości dodanej. Ta analiza jest nazywana analizą wartości. Czynność jest wartością dodaną w takim stopniu, w jakim jej wykonanie przyczynia się do ukończenia produktu lub usługi dla konsumentów. Chociaż działania o wartości dodanej są konieczne, skuteczność, z jaką są wykonywane, często można poprawić dzięki analizie najlepszych praktyk i analizie porównawczej. Ten proces doskonalenia nazywany jest przeprojektowaniem lub przebudową procesów biznesowych. Ponieważ wiele działań może nie pasować idealnie do dychotomii wartości dodanej / bez wartości dodanej, można przypisać wagi w celu wskazania zakresu, w jakim działalność stanowi wartość dodaną, na przykład skala od jednego do ośmiu, gdzie ósemka reprezentuje łączną addytywność, a zero - brak. Działanie bez wartości dodanej przekształca produkt lub usługę w sposób, który nie dodaje żadnej użyteczności do produktu lub usługi. Działania, które nie mają wartości dodanej, powinny być zminimalizowane lub wyeliminowane. Ogólna analiza łańcucha wartości obejmowałaby wszystkie działania i związane z nimi procesy, próbując zapewnić większą wartość przy tym samym koszcie, tę samą wartość mniejszym kosztem lub jedno i drugie.
KALKULACJA KOSZTÓW NA PODSTAWIE AKTYWNOŚCI
Ponieważ koszty są początkowo przypisywane z puli kosztów zasobów do pul kosztów działań, a stamtąd do końcowych obiektów kosztów, kalkulacja kosztów oparta na działaniach jest postrzegana jako dwuetapowy proces alokacji. Kiedyś czynności zostały zidentyfikowane, można pominąć analizę kosztów działań. Kalkulacja kosztów działań jest formą udoskonalenia kosztów, zaprojektowaną w celu uzyskania większej dokładności niż tradycyjne alokacje w przypisaniach kosztów na potrzeby kalkulacji kosztów produktu i podejmowania decyzji. Koszty są przypisywane do działań z puli kosztów zasobów. Koszty są najpierw kumulowane zgodnie z rodzajem zasobu, takim jak materiały lub robocizna, z którym są związane, a następnie identyfikuje się czynniki wpływające na zasoby (koszt), które mierzą zużycie zasobu przez działanie, i wykorzystuje się je do przypisania kosztów zużycie zasobów dla każdego działania Wynikiem tego przypisania jest pula kosztów działań dla każdego działania. Z puli kosztów działań nacisk przenosi się na jeden lub więcej czynników wpływających na działanie. Czynnik powodujący działanie mierzy częstotliwość lub intensywność, z jaką obiekt kosztów wymaga użycia czynności, wiążąc w ten sposób wykonanie zadań czynności z potrzebami jednego lub większej liczby obiektów kosztów. Obiekt kosztowy jest powodem wykonywania czynności; jest to jednostka produktu lub usługi, segment operacyjny organizacja lub nawet inna działalność, dla której kierownictwo chce przypisać koszty do celów kalkulacji kosztów jednostkowych lub podejmowania decyzji. Pule kosztów działań są następnie ponownie przypisywane do ostatecznych obiektów kosztów zgodnie z intensywnością, z jaką każdy obiekt kosztów wykorzystywał odpowiednie czynniki działania. Czynnikiem kosztowym można zdefiniować jako "każdy czynnik, który ma wpływ na zmianę poziomu całkowitego kosztu dla obiektu kosztowego". Ogólnie można zidentyfikować cztery rodzaje czynników kosztowych: oparte na ilości, na działaniach, konstrukcyjne i wykonawcze. Zarządzanie oparte na działaniach koncentruje się na czynnikach kosztowych opartych na działaniach. W badaniu i określaniu czynników kosztowych stosuje się wiele metod, takich jak diagramy przyczynowo-skutkowe, symulacje kosztów i analiza Pareto. Tradycyjne systemy przypisywania kosztów zazwyczaj przypisywałyby bezpośrednio do obiektów kosztów koszty zużycia zasobów, które można ekonomicznie powiązać bezpośrednio z jednostkami produkcji wymagającymi zasobów. Pozostałe koszty, zwane kosztami pośrednimi, byłyby gromadzone w jednej lub kilku pulach kosztów, które następnie byłyby gromadzone być przypisane do obiektów kosztowych zgodnie z podstawami alokacji związanymi z wolumenem. Gdy różne produkty zużywają zasoby w stawkach, które nie są dokładnie odzwierciedlone w ich względnych liczbach (ilościach), tradycyjne podejście do alokacji kosztów spowoduje subsydiowanie krzyżowe kosztów produktu. Oznacza to, że stosunkowo prosty produkt o dużej objętości zostanie ostatecznie zawyżony i dotowany później niedoszacowany, niewielki wolumen, stosunkowo złożony produkt, co skutkuje niedokładnymi kosztami jednostkowymi i nieoptymalnymi decyzjami dotyczącymi cen linii produktów i ocenami wydajności. Kosztorysowanie oparte na działaniach próbuje uwzględnić niejednorodność zużycia zasobów w różnych produktach w przypisaniu kosztów.
Agencje reklamowe to niezależne przedsiębiorstwa, które ewoluowały, aby rozwijać, przygotowywać i umieszczać reklamy w mediach reklamowych dla sprzedawców, którzy chcą znaleźć klientów na swoje towary, usługi i pomysły. Reklamodawcy korzystają z usług agentów, gdy uważają, że agencja będzie bardziej doświadczona niż oni w tworzeniu reklam lub rozwijaniu kampanii reklamowej. Ponieważ przedsiębiorstwa stały się bardziej złożone i zróżnicowane, wiele z nich konsultowało się z agencjami, aby pomogły im w realizacji działań związanych z komunikacją marketingową. Nowoczesna agencja reklamowa świadczy klientom szereg ważnych usług, w tym planowanie i zakup mediów, badania, informacje rynkowe, pomoc w promocji sprzedaży, opracowywanie kampanii i tworzenie reklam, a także szereg usług mających na celu pomoc reklamodawcy w osiągnięciu celów marketingowych. Pierwszą udokumentowaną agencją reklamową w Stanach Zjednoczonych była N. W. Ayer Agency, założona w 1877 r. Przedtem agenci reklamowi byli pośrednikami kosmicznymi - agentami, którzy pozyskiwali reklamy od firm, a następnie sprzedawali je gazetom, które miały trudności z uzyskaniem reklam poza miastem.
EWOLUCJA AGENCJI REKLAMOWEJ OD LAT 70. XIX W. DO POCZĄTKU LAT 1900.
Pod koniec XIX wieku większość reklam pojawiała się w gazetach, na plakatach i ulotkach. Ponieważ trudno było odtworzyć ilustracje, większość tych reklam była prostymi tekstowymi artykułami. Do 1900 roku w Stanach Zjednoczonych zaczęły pojawiać się pierwsze specjalistyczne magazyny. Czasopisma takie jak Field & Stream (w 1895 r.) i Good Housekeeping (w 1900 r.) stworzyły nisze rynkowe, które umożliwiały masowy marketing dla konsumentów o zróżnicowanych zainteresowaniach. Ponadto technologia druku znacznie się rozwinęła, umożliwiając pełnokolorowe ilustracje. Agencje reklamowe zaczęły wykorzystywać nową technologię do tworzenia atrakcyjniejszych reklam dla nowych nisz rynkowych, stając się w ten sposób centrami kreatywnymi, a nie tylko pośrednikami kosmicznymi. Koniec XIX i początek XX wieku to czasy, gdy społeczeństwo obawiało się nieetycznych praktyk biznesowych. Wiele zawodów utworzyło własne organizacje w celu stworzenia etycznych standardów działania. Amerykańskie Stowarzyszenie Agencji Reklamowych (AAAA) zostało założone w 1917 r., częściowo w odpowiedzi na te obawy etyczne. Gazety również ustaliły własne standardy etyczne dotyczące stawek pobieranych za reklamy. Do 1917 r. wydawcy zgodzili się ustalić stałą stawkę 15 procent jako standardową prowizję, jaką otrzymywałaby agencja reklamowa - z wyjątkiem reklamy lokalnej, dla której na ogół nie było z góry ustalonej prowizji . Ponadto uchwalono dwa prawa mające na celu złagodzenie obaw dotyczących nieetycznych praktyk reklamowych. Ustawa o Federalnej Komisji Handlu z 1914 r. została pierwotnie zaprojektowana w celu uznania wszystkich nieuczciwych metod konkurencji za bezprawne. Dopiero w 1922 roku reklama została prawnie uregulowana na mocy tej ustawy. Sprawą, która ustanowiła ten precedens prawny, była sprawa FTC v. Winsted Hosiery Company (1922) . Ustawa o czystej żywności i lekach z 1906 roku była pierwszą ustawą, która ograniczyła reklamę leków patentowych - leków reklamowanych przy użyciu przesadnych twierdzeń o skuteczności - do stosowania przez dzieci.
EWOLUCJA AGENCJI REKLAMOWEJ OD 1920 DO POCZĄTKU LAT 50. XX WIEKU
W latach 20. XX wieku większość agencji reklamowych ustaliła, że większość decyzji zakupowych rodziny była podejmowana przez kobiety lub była pod ich wpływem. W związku z tym agencje reklamowe tworzyły pełnokolorowe reklamy w magazynach dla towarów, takich jak drogie samochody, lodówki i radia. Gazety nadal używały prostych reklam. Chociaż Guglielmo Marconi wynalazł pierwsze działające radio w 1895 r., radio stało się popularne do użytku domowego i rodzinnego dopiero na początku lat 20. XX wieku. W tej dekadzie, w wyniku powszechnego zainteresowania radiem, agencje reklamowe produkowały programy radiowe w jedynym celu przyciągnięcia konsumentów do popularnych produktów krajowych. Na przykład opery mydlane były pierwotnie tworzone w celu reklamowania produktów mydlanych Procter & Gamble. Lata 30. XX wieku były okresem odnowionego zainteresowania opinii publicznej ustawodawstwem dotyczącym nieuczciwych i oszukańczych praktyk biznesowych. Poprawka Wheelera-Lei z 1934 r. do Federal Trade Commission Act umożliwiła Federal Trade Commission (FTC) ochronę konsumentów przed oszukańczą reklamą w przemyśle spożywczym, farmaceutycznym, urządzeń terapeutycznych i kosmetycznym . Ustawa Robinsona-Patmana z 1936 r. uniemożliwiała producentom oferowanie rabatów promocyjnych klientom detalicznym, chyba że oferowali również rabaty promocyjne konkurentom tego klienta. Chociaż II wojna światowa zawiesiła produkcję wielu dóbr i usług w czasie pokoju, wielu agentów reklamowych znalazło zatrudnienie w War Advertising Council, który był odpowiedzialny za mobilizację publicznego poparcia dla wysiłku wojennego. Ta organizacja później stała się Ad Council.
EWOLUCJA AGENCJI REKLAMOWEJ OD LAT 50. DO POCZĄTKU LAT 90. XX WIEKU
Koniec II wojny światowej przyniósł kulminację ponad dekady niezaspokojonego popytu konsumenckiego w wyniku Wielkiego Kryzysu i wojny. Większość rynków dóbr i usług znalazła chętną bazę konsumentów na nowe produkty - w tym telewizory. Ze względu na proliferację sprzedaży telewizyjnej w latach 50. XX wieku agencje reklamowe zaczęły łączyć wizualny wpływ reklam drukowanych z słuchowym wpływem radia, aby stworzyć realistyczny efekt. To z kolei spowodowało zmianę w strukturze agencji reklamowych. Na przykład przed latami 50. XX wieku głównym źródłem kreatywności była osoba pisząca przekaz reklamowy - nazywana copywriterem. W miarę jak telewizja sprawiała, że konsumenci coraz bardziej oswajali się z obrazami wizualnymi, dyrektor artystyczny i artysta stali się ważniejsi. W latach 50. XX wieku duża liczba powracających weteranów zaczęła zawierać związki małżeńskie i mieć dzieci - pokolenie dzieci znane jako baby boomers. Po raz pierwszy w Stanach Zjednoczonych agencje reklamowe uznały za opłacalne sprzedawanie niektórych towarów i usług bezpośrednio na rynku młodzieżowym. Reklamy dżinsów i sprzętu stereo pojawiły się we wkładkach do gazet, w niszowych magazynach dla młodzieży i w telewizji. W latach 60. XX wieku duże konta firm z listy Fortune 500 przeniosły się z większych agencji do mniejszych, bardziej responsywnych agencji. Nowsze, bardziej kreatywne reklamy okazały się popularne i dochodowe. Zyski pozwoliły agencjom wydawać więcej pieniędzy na badania reklamowe - często zatrudniając psychologów behawioralnych do projektowania szczegółowych badań zachowań zakupowych konsumentów. Funkcją psychologa behawioralnego było określanie, dlaczego konsumenci kupują towary i usługi. Postęp w projektowaniu produktów w latach 60. i 70. XX wieku spowodował niewielkie różnice między większością produktów - problem znany jako parytet produktu - i zmusił agencje reklamowe do większej kreatywności w celu odróżnienia produktu ich klienta od równie dobrych produktów konkurencji. Cała ta kreatywność miała swoją cenę - produkcja dwuminutowych reklam telewizyjnych stała się bardzo droga. Agencje reklamowe rozwiązały dylemat kosztów, projektując trzydziestosekundowe reklamy telewizyjne z zapadającymi w pamięć sloganami reklamowymi - krótkimi frazami zaprojektowanymi tak, aby przyciągnąć uwagę konsumenta i utrzymać rozpoznawalność określonej marki dobra lub usługi. Klienci agencji reklamowych zaczęli żądać wyników dla coraz droższych reklam - w formie danych badawczych od konsumenta końcowego. Jednak koszt tych badań, w tym zatrudnienia badaczy reklamy, był zbyt wysoki dla małych agencji, co zmusiło mniejsze agencje do połączenia się w większe w latach 80. XX wieku . W tej dekadzie niektóre agencje reklamowe odeszły od tradycyjnej reklamy radiowej i telewizyjnej na rzecz technik promocji sprzedaży (takich jak rabaty, kupony i loterie), które oferowały wymierne dowody wzrostu sprzedaży.
EWOLUCJA AGENCJI REKLAMOWEJ OD 1991 DO DZIŚ
Obecne agencje reklamowe stosują wiele technik, które były popularne we wczesnych latach reklamy. Gazety nadal reklamują się głównie w formacie tekstowym, chociaż kolorowe wkładki stają się coraz bardziej popularne. Agencje reklamowe nadal mogą reklamować się w coraz mniejszych magazynach niszowych. Radio pozostaje popularnym medium reklamowym na rynkach lokalnych. Powszechna dostępność telewizji kablowej i transmisji satelitarnej rozdrobniła reklamę telewizyjną na rynki niszowe. Jednak pewne zmiany w branży reklamowej nadal zmieniają sposób działania agencji reklamowych. Zmiany te omówiono poniżej.
Globalizacja. Agencje reklamowe są pod coraz większą presją tworzenia reklam produktów na rynku globalnym, często reklamując tę samą markę na różnych rynkach na całym świecie. Agencje muszą często brać pod uwagę kulturę, język i zwyczaje podczas projektowania reklamy dostosowanej do rynku międzynarodowego. Obecnie, aby sprostać wymaganiom globalnego rynku, reklamodawcy tworzą duże agencje międzynarodowe i nadal debatują nad tym, czy standaryzować reklamę globalnie, czy też segmentować reklamy według kultury lub narodowości .
Internet. Chociaż Internet jest nadal najbardziej dostępny w krajach rozwiniętych, transmisja satelitarna może wkrótce udostępnić dostęp do Internetu większości ludzi na całym świecie. Internet umożliwia agencjom reklamowym kierowanie przekazów do konsumentów na całym świecie i niedrogie przeprowadzanie badań rynkowych. Łatwy dostęp do informacji z badań rynkowych może umożliwić agencjom reklamowym dalsze opracowywanie reklam w celu dotarcia do coraz mniejszych nisz rynkowych na całym świecie. Jednocześnie pewne siły ograniczają dostępność i wykorzystanie informacji gromadzonych w Internecie. Na przykład ustawa o ochronie dzieci w Internecie (1998), lub COPA, jest prawem Stanów Zjednoczonych, które ma wpływ na transakcje biznesowe dokonywane przez dzieci korzystające z Internetu. COPA wymaga, aby strony internetowe, które pozyskują dane osobowe od dzieci poniżej 13 roku życia, w widocznym miejscu zamieszczały politykę prywatności i wymagały zgody rodziców na ujawnienie danych osobowych podanych przez te dzieci przed rozpoczęciem jakichkolwiek transakcji biznesowych. Wiele krajów opracowuje prawa podobne do COPA i pozostaje kwestią otwartą, w jaki sposób COPA i inne nadchodzące przepisy wpłyną na agencje reklamowe prowadzące działalność na całym świecie.
Rola rządu w reklamie Od 2000 r. Ad Council działa jako agencja reklamowa zajmująca się problemami społecznymi, takimi jak jazda pod wpływem alkoholu, nietolerancja rasowa i przemoc domowa (Russell i Lane, 1998; The Ad Council, 2000). Ad Council prawdopodobnie rozszerzy swoją rolę jako agencja reklamowa, która pełni rolę katalizatora zmian społecznych. Zmieniające się zachęty Podczas gdy 15-procentowa prowizja od sprzedaży brutto obowiązuje od jakiegoś czasu, obecnie powszechne jest oferowanie innych zachęt, takich jak miejsca w lożach na wydarzeniach sportowych i koncertach muzycznych .
ROZWIJAJĄCE SIĘ DZIEDZINY KARIERY W REKLAMIE
Obecnie agencje reklamowe obejmują szeroką gamę specjalistów, którzy współpracują ze sobą, aby stworzyć kompletną i dokładną kampanię reklamową. Menedżerowie ds. kont przydzielają zasoby agencji, w tym czas, pieniądze i personel do poszczególnych projektów. Menedżer ds. kont często tworzy zespół osób, z których każda wnosi do projektu określoną specjalizację reklamową. Zespół obejmuje dyrektora artystycznego, dyrektora kreatywnego, artystów, copywriterów i projektantów. Zespół może również obejmować innych specjalistów, takich jak analitycy mediów, testerzy produktów, badacze i konsultanci ds. public relations.
Amerykański Instytut Certyfikowanych Księgowych (AICPA) jest wiodącą krajową organizacją zawodową dla zawodu biegłego rewidenta (CPA) w Stanach Zjednoczonych. Jego założenie w 1887 r. było kamieniem milowym w ustanowieniu księgowości jako zawodu wyróżniającego się rygorystycznymi wymaganiami edukacyjnymi, wysokimi standardami zawodowymi, ścisłym kodeksem etyki zawodowej i zobowiązaniem do służenia interesowi publicznemu. W 2000 r. jego członkowie liczyli ponad 336 000 biegłych rewidentów z całego kraju, zatrudnionych w różnych środowiskach. Około 45 procent pracuje w biznesie i przemyśle, prawie 40 procent pracuje w firmach księgowych, a jeszcze inni są pracownikami organów i agencji rządowych lub są zatrudnieni w instytucjach edukacyjnych. Ponadto niektórzy członkowie pracują w zawodzie prawniczym, oferują usługi konsultingowe lub przeszli na emeryturę. Oprócz tych segmentów członkowskich, AICPA ma współpracowników (osób, które zdały Jednolity Egzamin CPA i są w trakcie spełniania innych wymagań, aby zostać CPA), a także studentów i członków międzynarodowych. Łącznie AICPA reprezentuje ponad 350 000 osób. Podstawową misją AICPA jest dostarczanie zasobów, informacji i przywództwa niezbędnych do umożliwienia CPA wykonywania usług w najlepszy profesjonalny sposób, aby przynieść korzyści zarówno społeczeństwu, jak i pracodawcom i klientom. Działania obejmują orędownictwo, certyfikację i licencjonowanie, komunikację, rekrutację i edukację, opracowywanie standardów i monitorowanie wyników. Realizując swoją misję, Instytut współpracuje z lokalnymi stowarzyszeniami CPA w pięćdziesięciu czterech jurysdykcjach księgowych (pięćdziesiąt stanów plus Waszyngton, D.C., Portoryko, Wyspy Dziewicze Stanów Zjednoczonych i Guam), dając priorytet tym obszarom, w których publiczne poleganie na umiejętnościach CPA jest największe. W świetle swojego zakresu i zasobów, AICPA jest krajowym przedstawicielem CPA przed rządami, organami regulacyjnymi i innymi organizacjami w zakresie ochrony i promowania interesów członków, przy jednoczesnym zachowaniu zaufania publicznego do systemu sprawozdawczości finansowej. Promuje również świadomość społeczną i zaufanie do uczciwości, obiektywizmu, kompetencji i profesjonalizmu CPA. Co najważniejsze, w celu zwiększenia zrozumienia przez kluczowych decydentów biznesowych umiejętności i wiedzy CPA, AICPA uruchomiło pierwszą w kraju kampanię reklamową prowadzoną w imieniu zawodu. Po pięciu kolejnych latach sukcesów, kompleksowa kampania reklamowa obejmowała reklamy telewizyjne, radiowe, drukowane i internetowe w całym kraju. Poprzez swoje komitety członkowskie złożone z wolontariuszy i personel zawodowy, AICPA ustanawia, monitoruje i egzekwuje standardy zawodowe, a także pomaga członkom w ciągłym doskonaleniu ich profesjonalnego postępowania, wyników i wiedzy. Promuje również i chroni tytuł CPA i zachęca, wśród stanów, które licencjonują CPA, do najwyższego możliwego poziomu jednolitych standardów certyfikacji i licencjonowania. W rzeczywistości AICPA opracowuje Jednolity Egzamin CPA, który jest przeprowadzany dla wszystkich kandydatów na stanowisko CPA we wszystkich stanach i jurysdykcjach licencyjnych w USA. Jako największe stowarzyszenie dla zawodu księgowego, AICPA jest również głównym źródłem informacji dla CPA i na temat zawodu CPA. W związku z tym AICPA, od 2000 r., opracowuje internetowy portal pionowy, który zapewni CPA zasoby, aby lepiej obsługiwać klientów i organizacje z małych i średnich przedsiębiorstw. Będzie on dostarczał informacje i usługi CPA szybciej, wydajniej i bardziej ekonomicznie niż jest to obecnie łatwo dostępne. Celem portalu jest stanie się ostatecznym miejscem docelowym e-biznesu zarówno dla potrzeb zawodowych, jak i biznesowych CPA, ich klientów i pracodawców. AICPA Online, strona internetowa Instytutu (www.aicpa.org), oferuje opinii publicznej najbardziej wszechstronne pojedyncze źródło informacji, jakie istnieje na temat zawodu CPA. Dla swoich członków Instytut posiada najobszerniejszą w kraju bibliotekę księgowości i publikuje liczne tomy norm technicznych i publikacji tematycznych. Inną misją AICPA jest zachęcanie wysoko wykwalifikowanych osób do zostania księgowymi. Poprzez edukatorów członkowskich, zalecenia dotyczące programów nauczania rachunkowości, ukierunkowaną rekrutację i materiały promocyjne, AICPA pomaga zapewnić ciągły przepływ wykwalifikowanych księgowych do zawodu. Oprócz wspierania rozwoju wybitnych programów akademickich dla studentów, AICPA jest również głównym dostawcą kursów edukacyjnych i materiałów do ustawicznego kształcenia zawodowego, które jest wymagane przez większość jurysdykcji w celu kontynuacji licencjonowania księgowych i członkostwa w AICPA. Inicjatywy AICPA podejmowane w imieniu zawodu CPA są liczne i stale ewoluują, aby nadążać za zmieniającymi się potrzebami bardzo zróżnicowanego członkostwa w niestabilnym środowisku biznesowym. Jako główny składnik tego celu, AICPA w 1998 r. uruchomiło trwający projekt CPA Vision Project (www.cpavision.org). Poprzez tę ogólnokrajową oddolną inicjatywę, zawód CPA zdefiniował swoją własną przyszłość, zbierając poglądy CPA ze wszystkich segmentów zawodu w całym kraju. W drodze konsensusu, zawód opracował oświadczenie o podstawowym celu i wizji oraz zidentyfikował nowy zestaw podstawowych wartości, usług i kompetencji, które będą charakteryzować pracę CPA w przyszłości. CPA Vision, zbiorcze określenie tych ustaleń, rozszerzy unikalne umiejętności, wiedzę specjalistyczną i szkolenia CPA na nowe usługi i produkty, które wnoszą unikalną wartość dodaną na bieżąco na ciągle zmieniającym się rynku. W celu zidentyfikowania obszarów, w których księgowi mogą oferować nowe usługi oparte na ich specjalistycznej wiedzy i aby kierować rynki do członków, Instytut opracował "usługi zapewnienia", które mają na celu poprawę jakości informacji lub jej kontekstu dla decydentów. Decydenci mogą być kadrą zarządzającą, użytkownikami informacji finansowych i niefinansowych, a nawet konsumentami. AICPA szkoli i licencjonuje księgowych, aby oferowali wyłączną usługę zapewnienia i pieczęć dla stron internetowych firm zajmujących się handlem elektronicznym przez Internet. Usługa znana jako CPA WebTrust wskazuje za pomocą specjalnej pieczęci WebTrust, która pojawia się na stronie internetowej firmy, że księgowy zweryfikował praktyki biznesowe firmy, integralność transakcji oraz środki ochrony prywatności i bezpieczeństwa. Pieczęć ma na celu zapewnienie konsumentom pewności podczas przeprowadzania transakcji e-commerce na tej stronie internetowej. Inne usługi audytorskie obejmują CPA ElderCare Services (świadczenie usług finansowych i niefinansowych w celu pomocy starszym klientom), CPA SysTrust (zwiększanie zaufania do systemów, które wspierają działalność gospodarczą lub działalność) i CPA Performance View (ułatwianie podmiotowi opracowywania systemu pomiaru wydajności dostosowanego do jego unikalnej misji i planu strategicznego). Dla rosnącej liczby CPA, którzy są członkami kierownictwa w korporacjach wszystkich rozmiarów - określanych jako członkowie w "biznesie i przemyśle" - AICPA utworzyło Centrum Doskonałości w Zarządzaniu Finansowym (CEFM). CEFM jest wirtualnym zasobem dla wielu programów, produktów, usług, zasobów wewnętrznych i partnerstw zewnętrznych AICPA, które wspierają pracę członków biznesowych i branżowych. Oferty te obejmują szeroki program benchmarkingu, specjalne konferencje, grupowe i samodzielne kursy edukacji zawodowej, badania nad wiodącymi tematami rachunkowości zarządczej i nowe publikacje. CEFM ma również na celu zapewnienie członkom aktualnych informacji na temat umiejętności, wiedzy, technologii i technik zarządzania wymaganych od księgowych, aby mogli pełnić role decyzyjne jako kluczowi członkowie zespołów zarządzających swoich firm. Przyjmując talent i wiele perspektyw oferowanych przez liczne grupy demograficzne w Ameryce, AICPA przyjęła oświadczenie o różnorodności, które, jak ma nadzieję, posłuży jako model dla zawodu księgowego, a także innych organizacji zawodowych. W tym oświadczeniu AICPA obiecuje przejąć inicjatywę w zachęcaniu, docenianiu i pielęgnowaniu różnorodności wśród swoich członków i siły roboczej poprzez identyfikowanie, uznawanie i wspieranie strategii i wysiłków w organizacji i zawodzie poświęconych osiąganiu tych celów różnorodności. We wszystkich swoich szeroko zakrojonych działaniach na rzecz zawodu księgowego, AICPA utrzymuje cel stania się najlepszym istniejącym stowarzyszeniem zawodowym. W czerwcu 1998 r. stała się pierwszą organizacją zrzeszającą profesjonalistów w Stanach Zjednoczonych, która uzyskała certyfikat ISO 9001, przyznawany przez Międzynarodową Organizację Normalizacyjną przy użyciu systemu certyfikacji opartego na szeregu międzynarodowych norm dotyczących zarządzania jakością i zapewniania jakości. Organizacyjnie AICPA jest kierowana i zarządzana przez członków. Realizuje swoją misję i cele poprzez pracę wolontariuszy około 2000 członków, którzy zasiadają w radzie zarządzającej, zarządzie, radach, komitetach, podkomitetach i zespołach zadaniowych. Rada zarządzająca, prawie 300-osobowy organ zarządzający AICPA, spotyka się dwa razy w roku i jest odpowiedzialny za ustalanie ogólnej polityki. Aby zapewnić reprezentację ze wszystkich pięćdziesięciu czterech jurysdykcji księgowych, jeden członek AICPA jest wyznaczany przez każde stowarzyszenie stanowe CPA na roczną kadencję, a członkowie ze stowarzyszeń stanowych z wakatami w radzie są wybierani każdego roku na trzyletnią kadencję. Ponadto w radzie zasiadają zarząd, byli przewodniczący i dwudziestu jeden członków. Zarząd, komitet wykonawczy rady, promuje stałe cele Instytutu poprzez przywództwo i zarządzanie. Jego dwudziestu trzech członków składa się z szesnastu dyrektorów i trzech członków publicznych (niebędących CPA), którzy pełnią funkcję przez trzyletnie kadencje, a także przewodniczącego, wiceprzewodniczącego, byłego przewodniczącego i prezesa, który jest członkiem personelu Instytutu. Z personelem liczącym około siedmiuset osób, AICPA ma cztery biura. Jego siedziba główna znajduje się pod adresem 1211 Avenue of the Americas, Nowy Jork, NY 10036-8775. Pozostałe lokalizacje znajdują się w Waszyngtonie, D.C.; Jersey City, New Jersey; i Lewisville, Teksas.
American Management Association (AMA) jest wiodącą na świecie organizacją rozwoju zarządzania opartą na członkostwie. Programy edukacji biznesowej i rozwoju zarządzania oferowane przez AMA zapewniają członkom i klientom możliwość nauki doskonałych umiejętności biznesowych i najlepszych dostępnych praktyk zarządzania. AMA realizuje ten cel poprzez różnorodne seminaria, konferencje, oceny, dostosowane rozwiązania edukacyjne, książki i zasoby online. Zakres programów oferowanych przez AMA obejmuje finanse, zasoby ludzkie, sprzedaż i marketing, produkcję i zarządzanie międzynarodowe, a także wiele innych. Filozofia AMA polega na byciu non-profitową, opartą na członkostwie organizacją edukacyjną, która pomaga osobom fizycznym i przedsiębiorstwom w rozwijaniu efektywności organizacyjnej, która jest główną zrównoważoną przewagą konkurencyjną w gospodarce globalnej. Głównym celem AMA jest identyfikacja najlepszych praktyk zarządzania na świecie w celu zapewnienia usług oceny, projektowania, rozwoju, samorozwoju i
nauczania. AMA realizuje ten cel dzięki obfitości mediów drukowanych i elektronicznych oraz metodologii nauczania, które są zaprojektowane w jedynym celu zwiększenia wzrostu osób fizycznych i organizacji. Początki AMA sięgają 1913 r., kiedy założono National Association of Corporation Schools. Około 1922 r. National Association of Corporation Schools połączyło się z Industrial Relations Association of America, które zostało założone w 1918 r. W wyniku fuzji powstało National Personnel Association. Niedługo po fuzji, w 1923 r., zarząd National Personnel Association wybrał nową nazwę American Management Association. Współczesne AMA, jak jest znane dzisiaj, rozpoczęło się od konsolidacji pięciu ściśle powiązanych stowarzyszeń krajowych, które wszystkie były poświęcone edukacji w zakresie zarządzania. Konsolidacja organizacji w jedną organizację skłoniła regentów State University of New York do nadania AMA tytułu organizacji edukacyjnej. AMA oferuje wiele korzystnych programów skierowanych do różnych osób. O
prócz swoich tradycyjnych programów, AMA oferuje również programy dla uczniów szkół średnich i wyższych oraz ma specjalne partnerstwa z lokalnymi organizacjami szkoleniowymi w zakresie zarządzania. Więcej informacji można uzyskać w American Management Association pod adresem 1601 Broadway, New York, NY 10019; (212) 586-8100 (telefon), (212) 903-8168 (faks), (800) 262-9699 (obsługa klienta); lub na stronie www.amanet.org.
W połowie lat 30. XX wieku American Marketing Society (założone w 1931 r.) i National Association of Teachers of Marketing (założone w 1915 r.) doszły do dwóch wniosków: obie organizacje miały wspólne zainteresowania w zakresie marketingu, a wiele ich publikacji i członkostw się pokrywało. Po tych wnioskach pomysł połączenia grup stał się rzeczywistością w 1937 r. wraz z powstaniem American Marketing Association (AMA). AMA jest profesjonalną, non-profitową organizacją dla marketingowców z ponad 500 północnoamerykańskimi oddziałami zawodowymi i członkostwem na całym świecie (w dziewięćdziesięciu dwóch krajach) przekraczającym 45 000. AMA wspiera również rozwój zawodowy studentów poprzez około 400 oddziałów uniwersyteckich na całym świecie. AMA zostało zorganizowane w celu rozwijania nauki o marketingu i zawsze kładło nacisk na doskonalenie zarządzania marketingiem poprzez wiedzę marketingową zdobywaną poprzez badanie, rejestrowanie i rozpowszechnianie informacji. Obecnie AMA dąży do zachęcania do większego zainteresowania i troski o edukację, do pomocy specjalistom ds. marketingu w ich wysiłkach na rzecz rozwoju osobistego i zawodowego oraz do promowania integracji rozważań etycznych i ogólnych praktyk marketingowych. W 1938 r. AMA zgodziła się współpracować z U.S. Bureau of the Census w celu ujednolicenia definicji marketingu agencji rządowych. Zarząd AMA debatował nad odpowiednimi definicjami i w 1985 r. zatwierdził definicje marketingu ("Proces planowania i realizacji koncepcji, ustalania cen, promocji i dystrybucji pomysłów, towarów i usług w celu tworzenia wymian, które spełniają cele indywidualne i organizacyjne)" oraz badań marketingowych ("Funkcja, która łączy konsumenta, klienta i opinię publiczną z podmiotem prowadzącym marketing za pośrednictwem informacji") (AMA, Definicje, 1999). AMA rozpowszechnia informacje za pośrednictwem czterech czasopism naukowych, które stanowią fora do dzielenia się wysiłkami w zakresie badań marketingowych; trzech magazynów biznesowych, które zapewniają dyskusje na temat pojawiających się problemów marketingowych dla kadry kierowniczej wyższego szczebla ds. marketingu; i jeden newsletter, który porusza wszystkie aspekty marketingu, w tym spostrzeżenia na temat etyki, nowych produktów i nie tylko. Wersje internetowe tych publikacji są dostępne na stronie www.ama .org/pub.
Amerykanie z niepełnosprawnościami z 1990 r. (ADA) to kompleksowy akt prawny dotyczący praw obywatelskich osób niepełnosprawnych. 26 lipca 1990 r. prezydent George Bush podpisał ADA jako szeroko zakrojone prawodawstwo mające na celu uczynienie amerykańskiego społeczeństwa bardziej dostępnym dla osób niepełnosprawnych i zakazanie dyskryminacji ze względu na niepełnosprawność. Ustawa dzieli się na pięć tytułów:
1. Zatrudnienie. Firmy muszą zapewnić rozsądne udogodnienia we wszystkich aspektach zatrudnienia, aby chronić prawa osób niepełnosprawnych.
2. Usługi publiczne. Osobom niepełnosprawnym nie można odmówić udziału w programach lub działaniach służby publicznej, które są dostępne dla osób bez niepełnosprawności.
3. Udogodnienia publiczne. Wszystkie nowe budynki muszą być dostępne dla osób niepełnosprawnych.
4. Telekomunikacja. Firmy telekomunikacyjne muszą mieć usługę przekazywania połączeń telefonicznych dla osób korzystających z urządzeń telekomunikacyjnych dla osób głuchych (TTY) lub podobnych urządzeń.
5. Różne. Niniejszy tytuł zawiera przepis zakazujący przymuszania, grożenia lub odwetu wobec osób niepełnosprawnych lub osób pomagających im w dochodzeniu ich praw na mocy ADA.
Ochrona ADA dotyczy przede wszystkim, ale nie wyłącznie, osób z niepełnosprawnością fizyczną i psychiczną. Zbudowana na fundamencie ustawowego, prawnego i programowego doświadczenia, ADA została opracowana na wzór Ustawy o prawach obywatelskich z 1964 r. i Ustawy o rehabilitacji z 1973 r. Aby zrozumieć podstawę uchwalenia ADA, należy przyjrzeć się pewnym wydarzeniom historycznym z lat 70. i ruchowi na rzecz praw osób niepełnosprawnych. Przede wszystkim było to pragnienie osób niepełnosprawnych, aby dążyć do osiągnięcia celu pełnego uczestnictwa w społeczeństwie amerykańskim, co doprowadziło do Ustawy o rehabilitacji z 1973 r. i Ustawy o edukacji osób niepełnosprawnych z 1974 r., które tak silnie wpłynęły na ADA. Skutki, jakie ADA może mieć na przedsiębiorstwa, obejmują restrukturyzację lub zmianę układu budynku, modyfikację sprzętu i usuwanie barier. Na przykład we wrześniu 1999 r. Greyhound Bus Lines z Dallas w Teksasie usunął bariery architektoniczne i zaczął zapewniać pomoc pasażerom niepełnosprawnym za pomocą autobusów wyposażonych w windy. Inny przykład skutków ADA miał miejsce w lutym 1997 r., kiedy hrabstwo Harrison w stanie Missisipi dało osobom głuchym lub niedosłyszącym równe szanse na zasiadanie w ławie przysięgłych. Ustawa Americans with Disabilities Act z 1990 r. jest uważana za najbardziej radykalny akt prawny od czasu ustawy Civil Rights Act z 1964 r.
Celem audytu jest zapewnienie, że stwierdzenie odpowiada pewnym ustalonym kryteriom. Audyt obejmuje gromadzenie i ocenę dowodów na poparcie stwierdzeń oraz przygotowanie komunikatu wskazującego pracę wykonaną przez audytora i jego opinię dotyczącą stopnia zgodności stwierdzeń z ustalonymi kryteriami.
TYPY AUDYTÓW>
Dwa główne rodzaje audytów to audyty finansowe i audyty zgodności. W audycie finansowym kierownictwo firmy stwierdza, że sprawozdania finansowe są sporządzane zgodnie z powszechnie przyjętymi zasadami rachunkowości (GAAP), które są obowiązującymi kryteriami. Audytor sprawozdań finansowych poświadcza stopień zgodności tych sprawozdań finansowych z GAAP. W audycie zgodności osoba lub firma stwierdza, że przestrzega określonych przepisów, regulacji, zasad lub procedur. Audytor zgodności zapewnia, że podmiot faktycznie przestrzega tych obowiązujących kryteriów. Więcej szczegółów podano poniżej. Audyty są powiązane z szerokim zakresem kryteriów. Audyty operacyjne lub audyty wydajności oceniają skuteczność i/lub wydajność organizacji. Na przykład audytor może ustalić, czy odbiorca funduszy rządowych wykonuje finansowane usługi w sposób opłacalny. Termin "zaangażowanie poświadczające" obejmuje audyty i inne usługi, w ramach których audytor jest angażowany w celu wydania pisemnej komunikacji wyrażającej wniosek dotyczący wiarygodności pisemnego oświadczenia, za które odpowiada inna strona. Na przykład audytor może poświadczyć wiarygodność programów nagród. Kluczowymi składnikami są oświadczenie złożone przez jedną stronę z oczekiwaniem, że strona trzecia będzie na nim polegać, oraz osoba poświadczająca dostarczająca pisemny raport na temat oświadczenia. Usługi zapewniające to niezależne usługi profesjonalne, w tym usługi poświadczające, które poprawiają jakość informacji lub jej kontekst dla decydentów. Obszary rozwoju usług zapewniających obejmują Webtrust, który zapewnia zapewnienie dotyczące kontroli związanych z handlem elektronicznym.
RODZAJE AUDYTORÓW
Trzy szerokie grupy audytorów to audytorzy zewnętrzni, wewnętrzni i rządowi. Biegli rewidenci (CPA) to zewnętrzni, niezależni audytorzy, którzy posiadają licencję poszczególnych stanów na świadczenie usług audytorskich. Zawód księgowego publicznego odegrał aktywną rolę w rozwijaniu i świadczeniu usług poświadczających. Amerykański Instytut Biegłych Rewidentów (AICPA), dobrowolna krajowa organizacja zawodowa, reprezentuje zawód księgowego w Stanach Zjednoczonych w ogóle, a zawód księgowego publicznego w szczególności. AICPA publikuje książki, czasopisma i inne materiały, zarządza stroną internetową (www.aicpa.org), lobbuje u ustawodawców i ustala standardy zawodowe. Stanowe stowarzyszenia zawodowe, takie jak New York State Society of CPAs, zapewniają wsparcie na poziomie lokalnym. Amerykańska Komisja Papierów Wartościowych i Giełd (SEC), wymagając od spółek publicznych przeprowadzania corocznych audytów, promowała rolę CPA w świadczeniu usług tego rodzaju (tj. niezależnej, profesjonalnej, zewnętrznej weryfikacji). Wymagania SEC omówiono poniżej. Audytorzy wewnętrzni są pracownikami organizacji. W spółkach publicznych audytorzy wewnętrzni zazwyczaj podlegają kierownictwu wyższego szczebla i zarządowi, za pośrednictwem komitetu audytu. Audytorzy wewnętrzni zajmują się głównie audytami zgodności i operacyjnymi. Instytut Audytorów Wewnętrznych (IIA), organizacja międzynarodowa, jest organizacją zawodową reprezentującą zawód audytora wewnętrznego. IIA publikuje materiały, zachęca do działalności lokalnych oddziałów, oferuje certyfikację jako certyfikowany audytor wewnętrzny (CIA) i zapewnia ogólne wsparcie dla praktykujących audytorów wewnętrznych. (Więcej informacji można znaleźć na stronie http://nan.shh.fi/raw/iia/.) Audytorzy rządowi oceniają własne agencje i te, za które odpowiadają, w tym odbiorców funduszy. Audytorzy ci istnieją na szczeblu krajowym, stanowym i lokalnym. Audytorzy Internal Revenue Service (IRS) i audytorzy General Accounting Office (GAO) są najbardziej widocznymi audytorami rządowymi. Audytorzy IRS badają zeznania podatkowe. (Więcej informacji można znaleźć na stronie http://www.irs.gov/.) GAO odpowiada za nadzór, przegląd i ocenę agencji federalnych i odbiorców funduszy federalnych. GAO składa sprawozdania Kongresowi Stanów Zjednoczonych.
AUDYTY FINANSOWE
Celem audytu finansowego jest ustalenie, czy sprawozdania finansowe są sporządzane zgodnie z powszechnie przyjętymi zasadami rachunkowości (GAAP). Zarząd organizacji odpowiada za sporządzenie sprawozdań finansowych. Audytor jest odpowiedzialny za wydanie opinii na temat rzetelności tych sprawozdań finansowych na podstawie swojego audytu. Przygotowując sprawozdania finansowe, zarząd musi przestrzegać GAAP, czyli zasad i praktyk regulujących sprawozdawczość finansową. Formalne oświadczenia dotyczące standardów rachunkowości finansowej są wydawane przez Financial Accounting Standards Board (FASB), niezależną organizację ustalającą standardy w Stanach Zjednoczonych. Komitet audytowy rady dyrektorów spółki działa jako łącznik z audytorami przeprowadzającymi audyt sprawozdania finansowego.
USTAWY O PAPIERACH WARTOŚCIOWYCH I GIEŁDACH Z 1934 R.
Ustawa o papierach wartościowych i giełdach z 1934 r. wymaga, aby spółki publiczne składały formularze 10-K w Komisji Papierów Wartościowych i Giełd (SEC) w ciągu 90 dni od zakończenia roku obrotowego. Zgłoszenie to musi zawierać zbadane sprawozdania finansowe i niezależny raport audytora. SEC została powołana w celu ochrony inwestorów, a wymóg publikowania zbadanych rocznych sprawozdań finansowych odgrywa rolę w realizacji tego celu. (Więcej informacji można znaleźć na stronie www.sec.gov.) Spółki niepubliczne mogą mieć swoje sprawozdania finansowe badane z kilku powodów. Spółka może planować wejście na giełdę w niedalekiej przyszłości i będzie potrzebować zbadanych sprawozdań finansowych przez kilka lat przed pierwszą ofertą publiczną. Bank lub inny wierzyciel może wymagać zbadanych sprawozdań finansowych co roku. Przedsiębiorstwo może dobrowolnie zatrudnić audytora, aby zapewnić właścicieli, że jego sprawozdania finansowe są wiarygodne.
FIRMY CPA
Sprawozdania finansowe poddane audytowi, które zostaną złożone w SEC lub innym organom, są audytowane przez CPA. Ci CPA pracują w firmach księgowych, z których wiele jest określanych jako firmy świadczące usługi profesjonalne. Największe firmy są powszechnie określane jako "Wielka Piątka". Te pięć firm to: Arthur Andersen & Co. , Deloitte & Touche, Ernst & Young , KPMG Peat Marwick i PricewaterhouseCooper. Firmy te i wiele innych firm księgowych działają jako spółki partnerskie z ograniczoną odpowiedzialnością (LLP) i dlatego mają w swoich nazwach oznaczenie LLP. Oprócz usług księgowych i audytorskich wiele firm CPA oferuje usługi podatkowe i doradcze. Te usługi konsultingowe obejmują projektowanie systemów, wsparcie w sporach sądowych, doradztwo w zakresie emerytur i świadczeń oraz planowanie finansowe
OGÓLNIE AKCEPTOWANE STANDARDY AUDYTU
Zewnętrzny, niezależny księgowy musi przestrzegać ogólnie przyjętych standardów audytu (GAAS) podczas przeprowadzania audytu sprawozdania finansowego. Te dziesięć szerokich standardów obejmuje trzy ogólne wymagania dla indywidualnego audytora, trzy standardy dla pracy w terenie i cztery standardy raportowania. Autorytatywne wskazówki dotyczące stosowania tych dziesięciu ogólnych standardów znajdują się w Oświadczeniach dotyczących standardów audytu (SAS), które są wydawane przez Radę ds. Standardów Audytu AICPA. Ogólne standardy wymagają, aby księgowy był biegły w zakresie rachunkowości i audytu, niezależny od swojego klienta i zachowywał należytą staranność zawodową. Przed zaakceptowaniem klienta audytu audytor musi ustalić, czy będzie w stanie świadczyć niezbędne usługi w odpowiednim czasie i nie może mieć żadnych powiązań finansowych ani zarządczych ze spółką, której sprawozdania finansowe są audytowane. Standardy pracy w terenie określają, co jest wymagane podczas faktycznego wykonywania prac audytorskich. Audytor musi zaplanować zlecenie i nadzorować asystentów. Audytor musi zrozumieć wewnętrzne kontrole firmy. Audytor musi uzyskać wystarczające dowody kompetentne, aby poprzeć stwierdzenia sprawozdania finansowego. Standardy sprawozdawcze określają wymagania dotyczące raportu audytora. Raport musi wyraźnie odnosić się do GAAP i musi zawierać opinię na temat sprawozdań finansowych jako całości. Jeśli nastąpiła zmiana zasad rachunkowości stosowanych przez firmę lub niewystarczające ujawnienie istotnych informacji, raport audytora powinien odnosić się do tych kwestii.
TYPY RAPORTÓW AUDYTORA
Audytor może wydać pięć rodzajów raportów dotyczących sprawozdań finansowych: opinia bez zastrzeżeń, opinia bez zastrzeżeń z językiem objaśniającym, opinia z zastrzeżeniami, opinia negatywna lub wyłączenie opinii. Jeśli sprawozdania finansowe rzetelnie przedstawiają, we wszystkich istotnych aspektach, sytuację finansową jednostki (tj. bilans), wyniki operacyjne (tj. rachunek zysków i strat) i przepływy pieniężne (tj. sprawozdanie z przepływów pieniężnych) zgodnie z GAAP, a audyt jest przeprowadzany zgodnie z GAAS, wówczas można wydać standardowy raport bez zastrzeżeń. Standardowy raport bez zastrzeżeń przedstawia się następująco:
Raport niezależnego audytora
Przeprowadziliśmy audyt załączonych bilansów spółki X na dzień 31 grudnia 20X2 i 20X1 oraz powiązanych sprawozdań z dochodów, zysków zatrzymanych i przepływów pieniężnych za lata zakończone w tych dniach. Za te sprawozdania finansowe odpowiada Zarząd Spółki. Naszym obowiązkiem jest wyrażenie opinii na temat tych sprawozdań finansowych na podstawie naszych audytów. Przeprowadziliśmy nasze audyty zgodnie z powszechnie przyjętymi standardami audytu. Standardy te wymagają, abyśmy zaplanowali i przeprowadzili audyt w celu uzyskania uzasadnionego zapewnienia, że sprawozdania finansowe są wolne od istotnych błędów. Audyt obejmuje badanie, na zasadzie testu, dowodów potwierdzających kwoty i ujawnienia w sprawozdaniach finansowych. Audyt obejmuje również ocenę zastosowanych zasad rachunkowości i istotnych szacunków dokonanych przez zarząd, a także ocenę ogólnej prezentacji sprawozdania finansowego. Uważamy, że nasze audyty stanowią uzasadnioną podstawę dla naszej opinii. Naszym zdaniem, sprawozdania finansowe, o których mowa powyżej, rzetelnie przedstawiają, we wszystkich istotnych aspektach, sytuację finansową spółki X na dzień 31 grudnia 20X2 r. i 20X1 r. oraz wyniki jej działalności i przepływy pieniężne za lata obrotowe zakończone tymi dniami, zgodnie z powszechnie przyjętymi zasadami rachunkowości. W pewnych okolicznościach, określonych w wytycznych zawodowych, audytor dodaje słowa wyjaśniające lub akapit do raportu, w którym wyrażona jest opinia bez zastrzeżeń. Opinia bez zastrzeżeń nie jest zmieniana. Istnieje dziewięć sytuacji, w których takie wyjaśnienia są dozwolone. Do najczęstszych należą przypadki, w których nastąpiła zmiana zasady rachunkowości, z którą audytor się zgadza. W takich przypadkach audytor dodaje akapit po akapicie opinii. Dodatkowy akapit krótko identyfikuje zmianę rachunkowości. Audytor wydałby opinię z zastrzeżeniami w sytuacjach, w których audytor uważa odejście od GAAP za istotne, ale nie powszechne lub wysoce istotne w odniesieniu do całego zestawu sprawozdań finansowych; lub gdy audytor nie był w stanie uzyskać wystarczających kompetentnych dowodów dotyczących istotnej, ale nie powszechnej lub wysoce istotnej części sprawozdań finansowych. Audytor musi dodać akapit wyjaśniający przed akapitem opinii, opisujący powód zastrzeżenia, a następnie zakwalifikować akapit opinii. W przypadku niewystarczających dowodów, co jest określane jako ograniczenie zakresu, drugi akapit raportu również zostałby zmodyfikowany. Jeśli, według osądu audytora, istnieją powszechne lub bardzo istotne odstępstwa od GAAP, a audytowanego nie można przekonać do dostosowania sprawozdań finansowych do zadowolenia audytora, audytor musi wyrazić opinię negatywną. W takim przypadku audytor wyraża opinię, że sprawozdania finansowe traktowane jako całość nie przedstawiają rzetelnie sytuacji finansowej, wyników operacyjnych i przepływów pieniężnych spółki zgodnie z GAAP. Zastrzeżenie opinii, które zasadniczo oznacza brak opinii, jest wydawane, gdy ograniczenie zakresu (zwykle brak dowodów dotyczących twierdzeń sprawozdania finansowego) jest tak powszechne lub bardzo istotne, że audytor nie może wyciągnąć wniosków co do rzetelności sprawozdań finansowych traktowanych jako całość. Zastrzeżenie jest również wydawane, gdy audytor nie jest niezależny od audytowanego. Zastrzeżenie opinii jest również dozwolone, ale nie jest wymagane, w warunkach dużej niepewności co do zdolności spółki do kontynuowania działalności jako przedsiębiorstwa w ciągu roku od daty sprawozdania finansowego.
KODEKS POSTĘPOWANIA ZAWODOWEGO
Kodeks postępowania zawodowego AICPA stanowi wytyczne dla biegłych rewidentów w zakresie świadczenia usług profesjonalnych, w tym audytów. Kodeks składa się z zasad, reguł, interpretacji i orzeczeń, począwszy od bardzo szerokich do bardzo szczegółowych. Sześć zasad etycznych postępowania zawodowego stanowi podstawę reszty kodeksu. Od biegłych rewidentów oczekuje się, że będą kierować się profesjonalnymi i moralnymi osądami we wszystkich swoich działaniach. Biegli rewidenci powinni działać w interesie publicznym. Biegli rewidenci powinni wykonywać całą swoją pracę z najwyższym poczuciem uczciwości. Biegli rewidenci powinni być wolni od konfliktów interesów podczas świadczenia usług profesjonalnych. Biegli rewidenci powinni przestrzegać standardów technicznych i etycznych zawodu. Biegli rewidenci prowadzący praktykę publiczną powinni przestrzegać tych zasad Kodeksu postępowania zawodowego przy określaniu zakresu i charakteru świadczonych usług. Zasady odnoszą się do bardziej szczegółowych kwestii etycznych. Biegli rewidenci muszą być niezależni, działać z uczciwością i obiektywizmem oraz przestrzegać i stosować się do obowiązujących standardów. Wyrażając opinię na temat sprawozdań finansowych, biegły rewident musi stosować GAAP jako kryterium oceny uczciwości. Informacje o kliencie są poufne. Opłaty warunkowe, prowizje lub opłaty za polecenie nie są dopuszczalne przy świadczeniu usług audytorskich. Księgowi nie mogą popełniać czynów haniebnych, reklamować się w sposób wprowadzający w błąd ani prowadzić działalności w formie organizacji, która nie jest dozwolona przez prawo stanowe. Interpretacje dostarczają więcej szczegółów dotyczących zasad. Zasada niezależności ma najwięcej interpretacji. Interpretacje udzielają wskazówek w kwestiach takich jak relacje finansowe i zarządcze z klientem, honorowe stanowiska dyrektorskie, pożyczki, spory sądowe oraz relacje firmowe i rodzinne. Interpretacje innych zasad dotyczą takich kwestii jak konflikty interesów, kompetencje, odstępstwa od ogłoszonych GAAP, ujawnianie poufnych informacji o kliencie, sprzedaż praktyki, opłaty warunkowe w sprawach podatkowych, dokumentacja klienta, wymogi rządowe w zakresie usług poświadczających oraz księgowi prowadzący odrębną działalność. Orzeczenia są odpowiedziami na konkretne pytania. Dostarczają wskazówek księgowym w odniesieniu do konkretnych problemów, które pojawiają się podczas świadczenia usług profesjonalnych. Przykłady obejmują kwestię, czy biegły rewident może przyjąć prezent od klienta, kiedy dana osoba może określać się mianem biegłego rewidenta oraz rekrutację personelu do obsadzenia stanowiska u klienta.
AUDYTY ZGODNOŚCI
Celem audytu zgodności jest ustalenie, czy podmiot audytowany przestrzega przepisanych praw, przepisów, zasad lub procedur. Audyty te mogą być przeprowadzane w ramach organizacji biznesowej w celach wewnętrznych lub w odpowiedzi na wymagania grup zewnętrznych, w szczególności rządu. Audyty zgodności mogą być również przeprowadzane w odniesieniu do osób fizycznych, na przykład audyt zgodności zeznania podatkowego danej osoby. Zazwyczaj audytorzy wewnętrzni są zaangażowani w audyty zgodności w ramach organizacji, chociaż niezależni księgowi również wykonują tę pracę. Audyt zgodności może koncentrować się na kontroli wewnętrznej i na tym, czy organizacja przestrzega wewnętrznie przepisanych zasad i procedur. W ramach audytu zgodności audytor uzyska dowody potwierdzające twierdzenie, że kontrole są przestrzegane. Na podstawie oceny dowodów przez audytora, zazwyczaj napisze on lub ona raport omawiający ustalenia i przedstawiający zalecenia dotyczące poprawy. Audyt zgodności może również obejmować zewnętrzne prawa i przepisy. Audytor ocenia, czy organizacja lub odpowiednia część organizacji, taka jak dział marketingu, przestrzega określonych praw i przepisów, takich jak ustawa o zagranicznych praktykach korupcyjnych z 1977 r. Prawo to zabrania podmiotom gospodarczym przekupywania urzędników innych rządów w celu uzyskania kontraktów biznesowych. Normy, które należy stosować podczas audytu agencji rządowych i odbiorców funduszy federalnych, znajdują się w "Government Auditing Standards" wydanych przez Generalnego Kontrolera Stanów Zjednoczonych. Publikacja ta, zwana "Yellow Book", zawiera dodatkowe standardy audytu, których należy przestrzegać, oprócz GAAS. W ramach każdego audytu Yellow Book audytor musi ocenić zgodność z prawami i przepisami. Audytor musi wykonać kilka kroków. Po pierwsze, audytor musi zidentyfikować stosowne prawa i przepisy. Następnie audytor ocenia ryzyko istotnej niezgodności; robiąc to, audytor musi rozważyć i ocenić kontrole wewnętrzne. Następnie audytor projektuje kroki i procedury testowania zgodności z przepisami prawa i regulacjami, aby zapewnić uzasadnione zapewnienie, że wykryto zarówno niezamierzone, jak i zamierzone przypadki istotnej niezgodności. Audytor musi wydać raport z testów zgodności, w którym należy zgłosić wszystkie przypadki niezgodności lub czynów niezgodnych z prawem.
Koszt jest ogólnie rozumiany jako poświęcenie poniesione w ramach działalności gospodarczej w celu osiągnięcia określonego celu, takiego jak konsumpcja, wymiana lub produkcja. Wszystkie rodzaje organizacji - przedsiębiorstwa, organizacje non-profit, rządowe - ponoszą koszty. Aby osiągnąć misje i cele, organizacja pozyskuje zasoby, przekształca je w jakiś sposób i dostarcza jednostki produktu lub usługi swoim klientom. Koszty są ponoszone w celu wykonania tych działań. W celu planowania i kontroli podejmowane są decyzje dotyczące takich obszarów, jak ustalanie cen, ocena programu, kalkulacja kosztów produktu, outsourcing i inwestycje. Różne koszty są potrzebne do różnych celów. W każdym przypadku koszty są określane, aby pomóc kierownictwu podejmować lepsze decyzje. Po poniesieniu koszty są początkowo przeglądane i akumulowane przez pewien system klasyfikacji. Koszty o jednej lub więcej wspólnych cechach mogą być akumulowane w pulach kosztów. Następnie koszty są ponownie przypisywane, w różny sposób dla określonych celów, z tych pul kosztów do jednego lub więcej obiektów kosztów. Obiekt kosztowy to działanie, jednostka produktu lub usługi, klient, inny zbiór kosztów lub segment organizacji, dla którego kierownictwo potrzebuje oddzielnego pomiaru i akumulacji kosztów. Koszty przypisane do obiektu kosztowego są albo bezpośrednie, albo pośrednie. Koszt bezpośredni można prześledzić i przypisać do obiektu kosztowego w bezstronny, opłacalny sposób. Poniesienia kosztu pośredniego nie można tak łatwo prześledzić. Bez takiego bezpośredniego związku z obiektem kosztowym koszt pośredni wymaga pośredniej czynności, aby pomóc ustalić relację formuły. Gdy koszt pośredni jest przypisywany za pomocą tej formuły, koszt jest uważany za przydzielony. Czynność używana do ustanowienia pośredniego powiązania nazywana jest podstawą alokacji.
RODZAJE ALOKACJI
Alokacja kosztów może być dokonywana zarówno w obrębie, jak i pomiędzy okresami. Jeśli dwa lub więcej obiektów kosztowych współdzieli wspólny obiekt lub program, pula kosztów współdzielonej jednostki jest wspólnym kosztem dla użytkowników i musi zostać podzielona lub przydzielona im. Podstawy alokacji są zazwyczaj oparte na jednym z następujących kryteriów: przyczynowo-skutkowym, korzyściach uzyskanych, uczciwości lub zdolności do poniesienia. Wybór kryterium może mieć wpływ na wybór podstawy. Na przykład alokacja kosztów wspólnej działalności usługowej w liniach produktów lub programach oparta na względnych kwotach przychodów jest podstawą zdolności do poniesienia, podczas gdy ta sama alokacja oparta na względnej liczbie jednostek usługowych zużywanych przez każdą linię produktów lub program odzwierciedlałaby albo korzyści uzyskane, albo kryteria przyczynowo-skutkowe. Alokacja kosztów jest zatem przypisaniem kosztu pośredniego do jednego lub większej liczby obiektów kosztowych zgodnie z pewnym wzorem. Ponieważ proces ten nie jest bezpośrednim przypisaniem i skutkuje różnymi kwotami przydzielonymi w zależności od podstawy przydziału lub wybranej metody (formuły), niektórzy uważają, że przydział kosztów ma w pewnym stopniu charakter arbitralny. Koszty aktywów trwałych są przydzielane i reklasyfikowane jako koszt w dwóch lub więcej okresach czasu. W przypadku wszystkiego innego niż ziemia, która nie jest przydzielana, reklasyfikacja aktywów materialnych nazywana jest amortyzacją (w przypadku wszystkiego innego niż zasoby naturalne) lub kosztem wyczerpania (w przypadku zasobów naturalnych). Podstawą tych przydziałów jest zazwyczaj czas lub wolumen aktywności. Dostępne są różne metody amortyzacji i wyczerpania. Koszty aktywów niematerialnych trwałych, takich jak patenty, są przydzielane w okresach czasu i reklasyfikowane jako koszt amortyzacji. Podstawą tych przydziałów jest zazwyczaj czas. Alokacje kosztów w okresie czasu są zazwyczaj dokonywane w segmentach organizacyjnych znanych jako centra odpowiedzialności lub w jednostkach produktu lub usługi lub programach, dla których wymagany jest pełny koszt. Alokacje mogą się różnić w zależności od tego, czy produkt lub program jest wyceniany na potrzeby sprawozdawczości finansowej, zwrotu kosztów kontraktów rządowych, raportowania do agencji rządowych, ustalania cen docelowych lub kalkulacji kosztów lub analizy rentowności cyklu życia. Alokacje do centrów odpowiedzialności są dokonywane w celu motywowania kierowników centrów do podejmowania decyzji bardziej zgodnych z celem i przypisywania każdemu centrum kwoty kosztów odzwierciedlającej wszystkie poświęcenia poniesione przez całą organizację na rzecz centrum. Alokacje te mogą być częścią ceny lub transferów puli kosztów z jednego działu do drugiego.
ROZWAŻANIA ETYCZNE
Alokacje mogą wiązać się z kwestiami etycznymi. Często rząd federalny wydaje kontrakty sektorowi prywatnemu na zasadzie koszt plus; to znaczy, że wszystkie rzeczywiste koszty poniesione na realizację kontraktu plus procent zysku są zwracane wykonawcy realizującemu kontrakt. Wykonawca realizujący kontrakty zarówno rządowe, jak i prywatne, może wybrać formułę, która ma tendencję do przypisywania większej liczby kosztów pośrednich kontraktom rządowym niż kontraktom pozarządowym. Wykonawca może również próbować uwzględnić w wnioskach o zwrot kosztów koszty, które nie są dozwolone przez agencję rządową. Wykonawca może nawet próbować podwójnie policzyć pozycję kosztową, włączając ją jako bezpośredni koszt kontraktu i jako część puli kosztów pośrednich przydzielonej do kontraktu. Na koniec wykonawca może próbować uzyskać zwrot kosztów obejmujący część kosztów niewykorzystanej pojemności. Przeprowadza się audyty kosztów kontraktów rządowych w celu zidentyfikowania nieodpowiednich kosztów.
FIRMY USŁUGOWE, ORGANIZACJE NOT-PROFIT I SPRZEDAWCY
Organizacje usługowe i non-profit również przydzielają koszty. Obiektem kosztowym może być jednostka usługi, indywidualny klient lub klaster (kategoria) klientów. Koszty firmy usługowej to zazwyczaj profesjonalna praca i koszty pośrednie na rzecz pracy. Podstawą przydzielania tych kosztów pośrednich są często godziny pracy zawodowej (rozliczane lub całkowite) lub koszt takiej pracy, odzwierciedlający kryteria przyczynowo-skutkowe lub otrzymane korzyści. W przypadku organizacji non-profit proporcje, które mają zostać przydzielone, najlepiej określać w kategoriach jednostek dostępnych zasobów, takich jak liczba pełnoetatowych ekwiwalentów, powierzchnia w metrach kwadratowych lub liczba linii telefonicznych. Ważne jest, aby pamiętać, że zasady przydzielania są takie same dla organizacji nastawionych na zysk i non-profit. Jedyną różnicą jest to, że obiekty kosztów będą różne. Merchandisers, w przeciwieństwie do większości organizacji usługowych i non-profit, mają zapasy, które muszą być wyceniane na potrzeby sprawozdawczości zewnętrznej i wewnętrznej. W takich przypadkach obiektem kosztowym jest jednostka zapasów. Koszty przypadkowe związane z nabyciem i przechowywaniem zapasów to głównie koszty bezpośrednie, które można łatwo prześledzić i wyraźnie przypisać do całego zapasu, jeśli nie do poszczególnych jednostek.
PRODUCENCI
Producenci muszą wyceniać zasoby wymagane do ukończenia swoich produktów. Podczas wyceniania jednostki produktu na potrzeby wyceny zapasów, przypisuje się koszty produkcji. Gdy obiektem kosztowym jest jednostka produktu, koszty produkcji są albo kosztami bezpośrednimi (możliwe do prześledzenia zużycie materiałów i robocizny), albo kosztami pośrednimi (wszystkie inne koszty produkcji, określane jako narzuty). Pośrednie koszty produkcji są przydzielane. Tradycyjnie producenci wykorzystujący technologie pracochłonne stosowali pojedynczą podstawę alokacji opartą na pracy, w godzinach lub w kosztach, powiązaną z pojedynczym pulą kosztów pośrednich. Producent wykorzystujący bardziej kapitałochłonną technologię może stosować podstawę niepracowniczą, taką jak godziny maszynowe. Obecnie wiele firm produkuje zróżnicowany zestaw produktów, wykorzystując różne technologie o wielu poziomach złożoności. Takie firmy potrzebują bardziej wyrafinowanego systemu przypisywania kosztów, który wykorzystuje wiele baz alokacji z wieloma pośrednimi pulami kosztów, takimi jak kalkulacja kosztów oparta na działaniach. Podczas gdy w przypadku kalkulacji kosztów produktu jednostka produkcji pozostaje ostatecznym obiektem kosztowym, technologia używana przez producenta może wymagać przypisania kosztów do pośredniej puli kosztów (obiektu) przed przypisaniem do jednostki produkcji. Na przykład technologia wsadowa ma najpierw przypisanie kosztów do indywidualnego zlecenia pracy (partii); całkowity koszt przypisany do zlecenia pracy jest następnie unitaryzowany na jednostki w partii w celu określenia kosztu jednej jednostki produkcji. Alternatywnie, dla danego okresu w technologii procesowej koszty są akumulowane przez (przypisane do) każdego procesu produkcyjnego; całkowity przypisany koszt jest następnie unitaryzowany na całkowitą liczbę (równoważnych) jednostek wyprodukowanych przez ten proces w celu wyliczenia kosztów jednostki produkcji. Producenci ponoszą również koszty działu serwisowego (takie jak koszty centrum komputerowego) na rzecz działów produkcyjnych. Te koszty działu usług są pośrednie w stosunku do jednostki produkcji i w celu pełnego kalkulowania kosztów muszą być przydzielone najpierw do odpowiednich obszarów produkcji, a następnie do jednostek produkcji. Takie przydziały nazywane są przydziałami działu usług, a podstawą przydziału jest zwykle działalność odzwierciedlająca charakter żądań stawianych działowi usług przez inne działy, zarówno usługowe, jak i produkcyjne.
PRZYDZIAŁY WSPÓLNEJ PRODUKCJI
Przydziały są również wymagane w procesie wspólnej produkcji. Kiedy dwa lub więcej oddzielnie identyfikowalnych produktów końcowych początkowo dzieli wspólny proces wspólnej produkcji, produkty te nazywane są produktami wspólnymi. Punkt, w którym stają się one oddzielnie identyfikowalne, nazywany jest punktem podziału. Koszty produkcji poniesione przed tym punktem podziału nazywane są kosztami wspólnymi i muszą być rozdzielone na różne produkty wspólne w celu kalkulacji kosztów produktu. Podstawy przydziału kosztów wspólnych zazwyczaj obejmują (1) względną wartość sprzedaży w momencie podziału, (2) wartość netto możliwą do uzyskania w momencie podziału (jako przybliżenie wartości sprzedaży w momencie podziału), (3) ostateczną wartość sprzedaży po zakończeniu procesu produkcji oraz (4) liczbę jednostek fizycznych produktów wspólnych w momencie podziału. Wielu uważałoby, że ta lista podstaw jest uporządkowana według malejącej preferencji użytkowania. Zazwyczaj istnieją dodatkowe koszty produkcji poza punktem podziału. Te dodatkowe koszty są ponoszone w celu ukończenia każdego produktu wspólnego. Dla danego wspólnego produktu, wartość netto możliwa do uzyskania przy oddzieleniu jest obliczana przez odjęcie dodatkowych kosztów ukończenia od końcowej wartości sprzedaży gotowego wspólnego produktu
PRZYDZIAŁANIE (PONOWNE) DZIAŁÓW USŁUG
Istnieją trzy podstawowe metody przydzielania kosztów działów usług do działów produkcyjnych lub programów w organizacjach non-profit: (1) metoda bezpośrednia; (2) metoda krokowa; i (3) metoda wzajemna. Podstawa przydziału kosztów obszaru usług powinna idealnie być przyczynowo związana z żądaniami stawianymi temu obszarowi przez inne obszary. Pod uwagę brane są zarówno kryteria przyczynowo-skutkowe, jak i uzyskane korzyści. Jeśli obszary usługowe świadczą sobie nawzajem usługi (nazywane usługami wzajemnymi), metoda wzajemna jest najdokładniejsza, następna jest metoda krokowa, a metoda bezpośrednia najmniej dokładna. W przypadku różnych działów usługowych i produkcyjnych jako obiektów kosztów, koszty są początkowo akumulowane dla każdego działu z osobna. Działy pracujące bezpośrednio nad programami lub jednostkami produktu lub usługi to działy produkcyjne. Pozostałe działy to działy usługowe. Problem alokacji polega zatem na ponownym przypisaniu kosztów działu usługowego do działów produkcyjnych lub programów zarówno w celu oceny wydajności, jak i kalkulacji kosztów produktu lub programu. W dziale produkcyjnym te przydzielone koszty usług są następnie ponownie przydzielane do jednostek usług lub produktów zgodnie z podstawami alokacji, których każdy odpowiedni dział produkcji używa do swoich kosztów pośrednich. Metoda bezpośrednia ignoruje usługi wzajemne. Koszty działu usługowego są przydzielane do działów produkcyjnych zgodnie z zakresem, w jakim każdy dział produkcji korzysta (lub, w celach budżetowych, zamierza korzystać) z usług działu usługowego. Ten "zakres" jest określany procentowo albo na podstawie ilości usług faktycznie świadczonych przez dział usługowy wszystkim działom produkcyjnym, albo na podstawie ilości usług, które dział usługowy jest w stanie świadczyć przy normalnej lub pełnej wydajności. Koszty zmienne i stałe mogą być przydzielane oddzielnie, co skutkuje podwójnym procesem alokacji (na przykład koszty zmienne oparte na rzeczywistym zużyciu, a koszty stałe oparte na zużyciu budżetowym). Metoda krokowa częściowo uwzględnia wzajemne usługi poprzez przydzielanie kosztów działu serwisowego do działów produkcyjnych w sposób sekwencyjny. Dział serwisowy, który zapewnia największą ilość usług innym działom serwisowym, jest przydzielany jako pierwszy; dział serwisowy, który zapewnia drugą największą ilość usług innym działom serwisowym, jest przydzielany jako drugi; i tak dalej. Bezwzględne kwoty kosztów poniesionych w działach serwisowych można wykorzystać do rozwiązania remisu w wykorzystaniu, większa kwota jest przydzielana jako pierwsza. Po przydzieleniu działu serwisowego jest on ignorowany przy wszystkich kolejnych przydziałach. Metoda wzajemna uwzględnia wszystkie wzajemne usługi poprzez utworzenie zestawu równoczesnych równań, po jednym równaniu na dział serwisowy. Dla dowolnego danego działu serwisowego jego równanie jest następujące: Całkowity przydzielalny koszt = bezpośrednie koszty działu serwisowego + koszty przydzielone z każdego z pozostałych działów serwisowych na podstawie wykorzystania przez ten dział pozostałych działów serwisowych. Po rozwiązaniu tych równań powstały koszt alokowany (czasami nazywany kosztem wzajemnym lub sztucznym) zostaje realokowany pomiędzy wszystkie pozostałe działy, usługi i produkcję, zgodnie z pierwotnymi procentowymi wartościami wykorzystania. Dwie dodatkowe kwestie, uczciwość i pozyskiwanie usług od wewnątrz lub z zewnątrz, dotyczą alokacji wspólnego kosztu. Kwota wspólnego kosztu usługi przydzielona do działu korzystającego może być większa niż koszt uzyskania tej samej usługi od zewnątrz przez ten dział. Odmiana metody wzajemnej zapewnia analizę, która pomaga kierownikowi działu korzystającego zdecydować, czy uzyskać usługę od innego działu w organizacji, czy też zawrzeć umowę na zewnątrz na usługę od innej organizacji. Kwota kosztu konkretnego działu usług przydzielona do działu korzystającego może zależeć od stopnia, w jakim inne działy również korzystają z tego działu usług. Nie wydaje się to uczciwe.
Analiza kosztów i korzyści jest wykorzystywana do określania, która alternatywa prawdopodobnie zapewni największy zwrot z proponowanej inwestycji. Czasami nazywana analizą efektywności kosztowej, jest istotna zarówno dla przedsiębiorstw, jak i podmiotów non-profit i jednostek rządowych. Przedsiębiorstwu może być pomocne wykorzystanie analizy kosztów i korzyści w celu określenia, czy należy zainwestować dodatkowe środki w obiekt w kraju ojczystym czy w innym kraju. Organizacja non-profit działająca w społeczności, która zapewnia różnorodne programy dla dzieci, może wykorzystać analizę kosztów i korzyści, aby pomóc kierownictwu w określeniu, które działania zapewnią najwięcej usług za określone koszty. Federalna agencja rządowa może wykorzystać analizę kosztów i korzyści w celu określenia, który z kilku projektów zaplanowanych dla parków narodowych prawdopodobnie będzie najczęściej wykorzystywany, biorąc pod uwagę koszty, przez zainteresowanych obywateli. Ponieważ zasoby, takie jak pieniądze i czas, są ograniczone, organizacja zazwyczaj nie może podjąć się każdego proponowanego projektu. Aby zdecydować, czy podjąć się projektu, decydenci ważą korzyści z projektu w stosunku do kosztów wymaganych zasobów, zazwyczaj zatwierdzając projekt, gdy jego korzyści przewyższają jego koszty. Analiza kosztów i korzyści zapewnia strukturę i wsparcie dla podejmowania takich decyzji. Korzyści zwiększają dobrobyt organizacji. Niektóre korzyści są korzyściami pieniężnymi, takimi jak kwota w dolarach przepływów pieniężnych z dodatkowej sprzedaży produktu lub oszczędności w wydatkach pieniężnych, które umożliwia projekt. Inne korzyści są ważne, ale trudniejsze do oszacowania. Na przykład projekt może zwiększyć zadowolenie klienta; zwiększone zadowolenie klienta może zwiększyć przyszłą sprzedaż, ale dokładny związek między sprzedażą a zadowoleniem jest często trudny do określenia. Koszty to wydatki lub wydatki poniesione w celu uzyskania korzyści. Wiele kosztów jest mierzonych w kategoriach pieniężnych, takich jak koszt zakupu nowej maszyny lub zatrudnienia dodatkowego pracownika.
ANALIZA KOSZTÓW I KORZYŚCI W BIZNESIE
Analiza kosztów i korzyści jest prosta, gdy wszystkie koszty i korzyści można zmierzyć w kategoriach pieniężnych. Załóżmy, że firma A musi zdecydować, czy wynająć maszynę do lodów na lato za 900 USD. Maszyna do lodów wygeneruje dodatkowe wpływy pieniężne w wysokości 1000 USD w okresie letnim. Korzyść z dodatkowych wpływów pieniężnych (1000 USD) przewyższa dodatkowe koszty (900 USD), więc projekt należy podjąć. Jednak nie wszystkie analizy kosztów i korzyści są tak proste. Jeśli korzyści i koszty występują w różnych okresach, konieczne może być zdyskontowanie przyszłych przepływów pieniężnych do ich dzisiejszej wartości równoważnej. W innym przykładzie oszczędności kosztów są korzyścią. Załóżmy, że firma B wykonuje około 100 000 kserokopii rocznie. Firma B nie ma własnej kserokopiarki i obecnie płaci 4 centy za kopię, czyli 4000 USD rocznie, firmie Copycat Copiers. Firma B może wydzierżawić kserokopiarkę za 2500 USD rocznie. Musi również zapłacić 2 centy za stronę papieru do wydzierżawionej maszyny, czyli 2000 USD. W tym przykładzie koszt dzierżawy maszyny i zakupu papieru (2500 USD + 2000 USD = 4500 USD) przekracza korzyść z oszczędności 4000 USD, które normalnie płaci się Copycat Copiers. Firma B powinna nadal korzystać z Copycat Copiers do swoich kserokopii. Jednak firma B musi mieć dość dobrą ocenę liczby kopii, których potrzebuje, aby być pewnym swojej decyzji. Jeśli firma B potrzebuje w tym roku 150 000 kopii zamiast 100 000, koszt dzierżawy maszyny i zakupu papieru (2500 USD + 3000 USD = 5500 USD) jest niższy niż 6000 USD (150 000 x 0,04 USD) oszczędności na opłatach dla Copycat Copiers. Trzeci przykład dotyczy projektu, którego korzyści są trudne do oszacowania. Załóżmy, że firma C decyduje, czy zorganizować piknik kosztujący 50 000 USD dla swoich pracowników. Firma C odniosłaby korzyść w postaci zwiększonego morale pracowników z pikniku. Lepsze morale pracowników mogłoby sprawić, że pracownicy będą ciężej pracować, zwiększając zyski. Jednak związek między zwiększonym morale a zwiększonymi zyskami pieniężnymi jest wątły. Podejmujący decyzję musi użyć swojego osądu, aby porównać korzyść niepieniężną z kosztem pieniężnym, być może decydując, że zwiększone morale pracowników jest warte kosztu 50 000 USD, ale nie będzie warte kosztu 100 000 USD. W poprzednich przykładach analiza kosztów i korzyści zapewniła ramy do podejmowania decyzji. Typowy jest zakres obiektywności związany z pomiarem czynników. Techniki stosowane w biznesie jako podstawa do określania kosztów i korzyści, takie jak zwrot z inwestycji, są na ogół mierzalne i dlatego wydają się obiektywne. Jednak nie jest niczym niezwykłym, że czynniki jakościowe wchodzą w proces podejmowania decyzji. Na przykład, dostarczanie produktu, który osoby o ograniczonych dochodach będą mogły kupić, może nie zapewnić najwyższego zwrotu pieniężnego z inwestycji w krótkim okresie, ale może okazać się udaną inwestycją długoterminową. Ostrożni decydenci próbują radzić sobie z trudnym do oszacowania czynnikiem w sposób możliwie najbardziej obiektywny. Jednak analiza kosztów i korzyści w większości sytuacji nadal wprowadza problemy z pomiarem.
ANALIZA KOSZTÓW I KORZYŚCI W PODMIOTACH NIEBIZNESOWYCH
Analizy kosztów i korzyści są również powszechne w podmiotach niebiznesowych. Zarządy organizacji non-profit ustalają priorytety dla swoich programów, a takie priorytety często określają pożądane wyniki programu. Na przykład załóżmy, że organizacja non-profit jest zainteresowana zmniejszeniem poziomu analfabetyzmu wśród obywateli społeczności wiejskiej w stanie, który ma jeden z najniższych dochodów na mieszkańca w Stanach Zjednoczonych. Gdy rozważane są alternatywne programy dla osób, które muszą nauczyć się czytać, przeprowadzane są analizy kosztów i korzyści, które skupiają się na szeregu czynników, w tym na tym, w jakim stopniu dany program może przyciągnąć osoby niepiśmienne. Program w centrum małego miasta może być rozważany, ponieważ obiekt jest tam dostępny po niskich kosztach - a te niskie koszty są atrakcyjne. Jednak skupienie się na kosztach nie wystarczy. Gdy rozważane są korzyści, może stać się jasne, że osoby chętne na taki program nie mają samochodów i że nie ma transportu publicznego z miejsca, w którym mieszkają, do centrum małego miasta. Dalsze rozważanie istotnych czynników i alternatyw, podejmowane w dobrej wierze, powinno skutkować analizami kosztów i korzyści, które dostarczą cennych informacji, gdy agencja podejmuje decyzje. Na wszystkich szczeblach rządu w Stanach Zjednoczonych analizy kosztów i korzyści są wykorzystywane jako podstawa przydzielania zasobów dla dobra publicznego tym programom, projektom i usługom, które spełnią oczekiwania obywateli. Na przykład decydenci na szczeblu federalnym, którzy odpowiadają za politykę dotyczącą norm środowiskowych, przepisów dotyczących jakości powietrza lub usług dla osób starszych, często uważają informacje z analiz kosztów i korzyści za kluczowe dla podejmowania decyzji.
CIĄGŁE WYSIŁKI W CELU OKREŚLENIA CZYNNIKÓW KOSZTÓW I KORZYŚCI
W miarę jak możliwości wykorzystania funduszy rosną, pojawia się motywacja do lepszego pomiaru zarówno kosztów, jak i korzyści, a także do szybszych sposobów przeprowadzania analiz dla atrakcyjnych alternatyw. Wszystkie rodzaje podmiotów - przedsiębiorstwa, organizacje non-profit i jednostki rządowe - dążą do ulepszenia pomiarów stosowanych w analizach kosztów i korzyści. Możliwości sprzętu elektronicznego zapewniają obiecującą pomoc w gromadzeniu danych istotnych dla analiz. Rozsądne wykorzystanie zasobów jest ważnym celem w każdej organizacji; analizy kosztów i korzyści wnoszą kluczowy wkład w ten cel. Dlatego też zwraca się uwagę na poprawę zarówno skuteczności, jak i wydajności takich analiz.
Analiza kosztów-objętości-zysków (CVP), czyli analiza progu rentowności, jest wykorzystywana do obliczania poziomu wolumenu, przy którym całkowite przychody są równe całkowitym kosztom. Gdy całkowite koszty i całkowite przychody są równe, mówi się, że organizacja biznesowa jest "na progu rentowności". Analiza opiera się na zestawie równań liniowych dla linii prostej i rozdzieleniu kosztów zmiennych i stałych. Całkowite koszty zmienne są uważane za koszty, które zmieniają się wraz ze zmianą wolumenu produkcji. W fabryce wolumen produkcji jest uważany za liczbę wyprodukowanych jednostek, ale w organizacji rządowej bez procesu montażu wyprodukowane jednostki mogą odnosić się na przykład do liczby przetworzonych przypadków opieki społecznej. Istnieje wiele kosztów, które się zmieniają, ale jeśli zmiana nie jest spowodowana zmianami wolumenu, nie jest uważana za koszt zmienny. Przykładami kosztów zmiennych są materiały bezpośrednie i robocizna bezpośrednia. Całkowite koszty stałe nie zmieniają się wraz ze zmianą poziomów wolumenu w odpowiednim zakresie. Przykładami kosztów stałych są amortyzacja liniowa i roczne opłaty ubezpieczeniowe. Całkowite koszty zmienne można rozpatrywać jako linię 45°, a całkowite koszty stałe jako linię prostą. Na wykresie progu rentowności pokazanym na rysunku , nachylenie linii DFC w górę przedstawia zmianę kosztów zmiennych.

Koszty zmienne znajdują się na szczycie kosztów stałych, linii DE. Punkt F przedstawia punkt progu rentowności. Jest to miejsce, w którym całkowity koszt (koszty poniżej linii DFC) przecina się i jest równy całkowitym przychodom (linia AFB). Wszystkie linie na wykresie są liniami prostymi: Liniowość jest podstawowym założeniem analizy CVP. Chociaż nikt nie może być pewien, że koszty są liniowe w całym zakresie produkcji, jest to założenie CVP. Aby pomóc złagodzić ograniczenia tego założenia, zakłada się również, że zależności liniowe obowiązują tylko w odpowiednim zakresie produkcji. Odpowiedni zakres jest reprezentowany przez punkty najwyższego i najniższego poziomu produkcji, które zostały wcześniej osiągnięte w ramach wcześniejszej produkcji. Analizę CVP najlepiej rozpatrywać w odpowiednim zakresie, tj. w ramach naszego poprzedniego rzeczywistego doświadczenia. Poza tym zakresem koszty mogą się zmieniać w sposób nieliniowy. Równanie liniowe dla całkowitego kosztu wygląda następująco:
Całkowity koszt = całkowity koszt stały + całkowity koszt zmienny
Całkowity koszt zmienny oblicza się, mnożąc koszt jednostki, który pozostaje stały na jednostkę, przez liczbę wyprodukowanych jednostek. Dlatego równanie całkowitego kosztu można rozszerzyć w następujący sposób:
Całkowity koszt = całkowity koszt stały + (koszt zmienny na jednostkę x liczba jednostek)
Całkowite koszty stałe nie zmieniają się. Ostateczna wersja równania wygląda następująco:
Y = a + bx
gdzie a jest kosztem stałym, b jest kosztem zmiennym na jednostkę, x jest poziomem aktywności, a Y jest kosztem całkowitym. Załóżmy, że koszty stałe wynoszą 5000 USD, wolumen wyprodukowanych jednostek wynosi 1000, a koszt zmienny na jednostkę wynosi 2 USD. W takim przypadku całkowity koszt zostanie obliczony w następujący sposób:
Y = 5000 USD + (2 x 1000 USD) Y = 7000 USD
Można zauważyć, że ważne jest oddzielenie kosztów zmiennych i stałych. Innym powodem, dla którego ważne jest oddzielenie tych kosztów, jest to, że koszty zmienne służą do określania marży wkładu, a marża wkładu służy do określania punktu równowagi. Marża wkładu to różnica między jednostkowym kosztem zmiennym a ceną sprzedaży za jednostkę. Na przykład, jeśli jednostkowy koszt zmienny wynosi 15 USD, a cena sprzedaży za jednostkę wynosi 20 USD, wówczas marża wkładu wynosi 5 USD. Marża wkładu może zapewnić wkład w wysokości 5 USD w redukcję kosztów stałych lub wkład w wysokości 5 USD w zyski. Jeśli firma działa na wolumenie powyżej wolumenu punktu równowagi (powyżej punktu F), wówczas 5 USD stanowi wkład (w przeliczeniu na jednostkę) w dodatkowe zyski. Jeśli firma działa przy wolumenie poniżej punktu rentowności (poniżej punktu F), wówczas 5 dolarów zapewnia redukcję kosztów stałych i kontynuuje to, aż do przekroczenia punktu rentowności. Po ustaleniu marży wkładu można jej użyć do obliczenia punktu rentowności w wolumenie jednostek lub w całkowitych dolarach sprzedaży. Gdy marża wkładu na jednostkę występuje poniżej punktu rentowności firmy, jest to wkład w redukcję kosztów stałych. Dlatego logiczne jest podzielenie kosztów stałych przez marżę wkładu, aby określić, ile jednostek musi zostać wyprodukowanych, aby osiągnąć punkt rentowności:
Próg rentowności w jednostkach = całkowite koszty stałe / marża brutto na jednostkę
Załóżmy, że marża wkładu jest taka sama jak w poprzednim przykładzie, 5 USD. W tym przykładzie załóżmy, że całkowite koszty stałe wzrosły do 8000 USD. Używając równania, określamy, że punkt równowagi w jednostkach:
Próg rentowności w jednostkach = 8000 / 5
Na Rysunku punkt równowagi jest pokazany jako pionowa linia od osi x do punktu F. Teraz, jeśli chcemy określić punkt równowagi w dolarach całkowitej sprzedaży (całkowity przychód), możemy pomnożyć 1600 jednostek przez założoną cenę sprzedaży 20 USD i otrzymać 32 000 USD. Albo możemy użyć innego równania, aby obliczyć punkt równowagi w całkowitej sprzedaży bezpośrednio. W takim przypadku najpierw musielibyśmy obliczyć wskaźnik marży wkładu. Wskaźnik ten jest określany przez podzielenie marży wkładu przez cenę sprzedaży. Odnosząc się do naszego przykładu, obliczenie wskaźnika obejmuje dwa kroki:
20 USD (cena sprzedaży)
-15 (koszt zmienny)
5 USD (marża wkładu)
Wskaźnik marży na poczet sprzedaży = marża na poczet sprzedaży/cena sprzedaży
=5/20
= 25%
Wracając do równania progu rentowności i zastępując marżę pokrycia jednostkowego wskaźnikiem marży pokrycia, otrzymujemy następujący wzór i obliczenie:
Próg rentowności całkowitej sprzedaży = stosunek całkowitych kosztów stałych do marży brutto
= 8000 USD / 0,25
= 32000 USD
Rysunek przedstawia ten punkt równowagi, przy sprzedaży na poziomie 32 000 USD, jako linię poziomą od punktu F do osi y. Całkowita sprzedaż w punkcie równowagi jest zilustrowana na osi y, a całkowita liczba jednostek na osi x. Należy również zauważyć, że straty są reprezentowane przez trójkąt DFA, a zyski przez trójkąt FBC. Informacje finansowe wymagane do analizy CVP są przeznaczone do użytku wewnętrznego i są zwykle dostępne tylko dla menedżerów w firmie; informacje o kosztach zmiennych i stałych nie są dostępne dla ogółu społeczeństwa. Analiza CVP jest dobra jako ogólny przewodnik dla jednego produktu w odpowiednim zakresie. Jeśli firma ma więcej niż jeden produkt, wówczas marże wkładu ze wszystkich produktów muszą zostać uśrednione. Jednak każdy proces uśredniania kosztów obniża poziom dokładności w porównaniu z pracą z danymi o kosztach z jednego produktu. Ponadto niektóre organizacje, takie jak organizacje non-profit, nie ponoszą znaczącego poziomu kosztów zmiennych. W takich przypadkach standardowe założenia CVP mogą prowadzić do mylących wyników i decyzji.
Siły ekonomiczne wpływają na decyzje podejmowane w ramach osobistej działalności biznesowej, jak również w organizacjach biznesowych, podmiotach rządowych i organizacjach non-profit. Zmiany warunków ekonomicznych wpływają na podaż i popyt, siłę nabywczą i chęć wydawania pieniędzy oraz intensywność wysiłków konkurencyjnych. Zmiany te napędzają wahania w ogólnym stanie gospodarki i wpływają na kierunki działań i terminowość działań. Organizacje non-profit, na przykład, mogą stwierdzić, że wysiłki zbierania funduszy napędzane osobistymi składkami są bardziej skuteczne w okresach prosperity gospodarczej. Osoba kupująca dom po raz pierwszy może być bardziej skłonna do zakupu domu, gdy stopy procentowe są niskie, a ceny prawdopodobnie wzrosną w przyszłych miesiącach. Ponieważ decydenci nie mogą kontrolować sił ekonomicznych, należy podjąć skoordynowany wysiłek, aby monitorować takie siły. Wszyscy dyrektorzy biznesowi wiedzą, że ważne jest, aby uzyskać pewne pojęcie o tym, jakie ogólne warunki biznesowe będą w nadchodzących miesiącach lub latach. Na szczęście niektóre wskaźniki ekonomiczne lub indeksy umożliwiają decydentom prognozowanie nadchodzących zmian sił ekonomicznych. Ponieważ zarówno jednostki, jak i organizacje działają w dynamicznym środowisku gospodarczym, utrata z oczu tego, co się dzieje, może być katastrofalna dla obu stron.
CYKL KONIUNKTURALNY
Wahania w gospodarce mają tendencję do podążania za ogólnym wzorcem, który jest powszechnie określany jako cykl koniunkturalny. Cykl koniunkturalny, w tradycyjnym ujęciu, składa się z czterech etapów - każdy z nich może różnić się pod względem czasu trwania i intensywności. Cztery etapy to dobrobyt, recesja, depresja i ożywienie. Aktualne wykresy, tabele i pomiary odpowiednich wskaźników ekonomicznych są publikowane przez Biuro Spisu Ludności w miesięcznym raporcie, Business Cycle Developments. Wskaźniki ekonomiczne to predyktory lub mierniki, które sygnalizują cykliczne ruchy gospodarki w każdym etapie cyklu koniunkturalnego lub z jednego etapu do drugiego. Kilka przykładów wskaźników ekonomicznych obejmuje średni tydzień pracy w przemyśle wytwórczym, nowe pozwolenia na budowę mieszkań prywatnych, nowe zamówienia na dobra trwałego użytku i zmiany w zadłużeniu konsumenckim. Podczas gdy różne agencje rządowe zbierają i raportują miesięczne, kwartalne, półroczne i roczne pomiary licznych wskaźników ekonomicznych, ekonomiści reprezentujący różne branże i inni decydenci analizują i interpretują dane. Czas ma kluczowe znaczenie, jeśli chodzi o podejmowanie dobrych decyzji wrażliwych na cykl koniunkturalny. Tak jak kierowca ciężarówki zaczyna hamować przed dotarciem do skrzyżowania z migającym czerwonym światłem, decydenci muszą opracować odpowiednie plany, zanim cykl koniunkturalny przejdzie z jednego etapu do następnego. Po okresie dobrobytu, charakteryzującym się niskim bezrobociem i stosunkowo wysokimi dochodami, następuje recesja, okres, w którym bezrobocie rośnie, a całkowita siła nabywcza spada, co prowadzi do zmniejszenia wydatków firm i konsumentów. Kierownik produkcji powinien dokonać odpowiednich cięć przed nadejściem recesji. Niedokonanie tego w obliczu spadającej sprzedaży prowadzi do rozdętych zapasów i bezczynnych zasobów produkcyjnych. Z drugiej strony, gdy okres recesji (podczas którego bezrobocie jest niezwykle wysokie, a płace bardzo niskie) ustępuje okresowi ożywienia (charakteryzującemu się wzrostem zatrudnienia i dochodów), kierownik produkcji powinien zacząć planować zwiększenie produkcji. Tak jak kierowca ciężarówki zobaczył czerwone światło i uznał je za sygnał do rozpoczęcia hamowania, decydenci muszą dostrzec zmieniające się warunki ekonomiczne i podjąć odpowiednie reakcje.
PROCES PRZEPROWADZANIA ANALIZY EKONOMICZNEJ
Przeprowadzenie analizy ekonomicznej wymaga zastosowania naukowych metod w celu rozbicia zdarzeń ekonomicznych na oddzielne komponenty, które są łatwiejsze do analizy. Pozostała część artykułu omawia kroki zawarte w tym procesie.
Krok 1 - Identyfikacja odpowiednich wskaźników ekonomicznych Pierwszym krokiem w procesie przeprowadzania analizy ekonomicznej jest identyfikacja odpowiednich wskaźników ekonomicznych dla konkretnych prognoz lub trendów ekonomicznych. Chociaż można wybrać różne wskaźniki, są one zazwyczaj klasyfikowane jako wskaźniki wyprzedzające, opóźniające i/lub pokrywające się z warunkami ekonomicznymi. Miary danych pochodzące ze wskaźników ekonomicznych dostarczają cennych informacji do identyfikacji trendów ekonomicznych i przygotowania konkretnych prognoz ekonomicznych.
Krok 2 - Zbieranie danych ekonomicznych Po zakończeniu identyfikacji wskaźników można rozpocząć drugi krok, czyli zbieranie danych ekonomicznych uzyskanych przez wskaźniki. Zbieranie danych odbywa się poprzez obserwację i/lub przeglądanie miar wyników ekonomicznych, takich jak stopy bezrobocia, dochody i wydatki osobiste, stopy procentowe, zapasy przedsiębiorstw, produkt brutto według branży i wiele innych wskaźników lub indeksów ekonomicznych. Takie miary wyników ekonomicznych można znaleźć w źródłach wtórnych, takich jak publikacje biznesowe, handlowe, rządowe i ogólnotematyczne. Biuro Analiz Ekonomicznych (BEA), znajdujące się w Departamencie Handlu Stanów Zjednoczonych, dostarcza informacji ekonomicznych za pośrednictwem komunikatów prasowych, publikacji, dyskietek, płyt CD-ROM i Internetu. Dostęp do informacji można uzyskać za pośrednictwem witryny internetowej Biura (http://www.bea.doc.gov), nagranych wiadomości telefonicznych i drukowanych raportów Biura Analiz Ekonomicznych. Takie dane ekonomiczne są również dostępne online za pośrednictwem Economic Bulletin Board STAT-USA.
Krok 3 - Przygotuj lub wybierz prognozę ekonomiczną Oczywiście samo zebranie informacji o wskaźnikach ekonomicznych nie wystarczy. Decydenci muszą wykorzystać dane do identyfikacji trendów i prognozowania. Decydenci wiedzą, że ważne jest, aby uzyskać pewne pojęcie o tym, jakie warunki ekonomiczne będą panować w nadchodzących miesiącach lub latach. W związku z tym albo wykorzystują zebrane dane do przygotowania własnych prognoz, albo korzystają z prognoz ekonomicznych, które zostały przygotowane przez ekspertów monitorujących aktywność ekonomiczną. Niezależnie od jej pochodzenia, sama prognoza jest niezbędna, jeśli decydent ma rozpoznać szanse i zagrożenia stwarzane przez otoczenie ekonomiczne.
Tak więc wykorzystanie danych ekonomicznych do przewidywania przyszłości jest trzecim krokiem w tym procesie. Prognozowanie ekonomiczne może być i często jest skomplikowanym procesem. Podczas gdy dokładne, istotne dane są podstawą prognoz, prognościści muszą uważać, aby nie gromadzić tak dużej ilości danych, że sama ich ilość uniemożliwi analizę. Prognozy można klasyfikować jako krótkoterminowe (z rozpiętościami lub odległościami do okresu docelowego do jednego lub dwóch lat), pośrednie (od dwóch do pięciu lat) i długoterminowe (odnoszące się do bardziej trwałych wydarzeń i odległych zdarzeń). Ze względu na możliwość wystąpienia nieprzewidzianych zdarzeń w długim okresie, prognozy krótkoterminowe są zwykle dokładniejsze niż długoterminowe. Istnieją cztery główne techniki wykorzystywane do prognozowania:
• Prognozowanie osądzające jest najstarszą i nadal najważniejszą metodą prognozowania przyszłości. Prognozy osądzające często łączą ze sobą osądy kilku prognostów, aby wygenerować prognozę. Może to być skomplikowany proces, ponieważ różne metodologie "delfickie" są wykorzystywane do integrowania danych wejściowych od osób doświadczonych w prognozowaniu.
• Prognozy wskaźnikowe są niemal tak stare, jak prognozy osądowe. Ta technika wymaga, aby wskaźniki ekonomiczne były używane do szacowania zachowania powiązanych zmiennych. Indeks wiodących wskaźników publikowany przez Departament Handlu jest najbardziej znanym ogólnym pomiarem, ale decydenci mogą używać wielu innych wskaźników do własnych celów.
• Techniki szeregów czasowych wykorzystują prognozy trendów przeszłej aktywności gospodarczej, aby rozszerzyć je na przyszłość. Prognozowanie odbywa się poprzez nanoszenie danych z ostatnich lat na wykres i, na podstawie najnowszych danych, rozciąganie linii na przyszłe okresy czasu, która podąża za wzorcem z poprzednich lat.
• Modele strukturalne gospodarki próbują uchwycić współzależności między wieloma zmiennymi, wykorzystując analizę statystyczną do szacowania historycznych wzorców. Duże modele gospodarki USA, używane przez duże firmy prognostyczne i rząd, mogą mieć nawet tysiąc powiązanych ze sobą równań. Jednak proste modele używane przez poszczególne organizacje mogą mieć zaledwie jedno równanie.
Te cztery metody nie wykluczają się wzajemnie. Kombinacje metodologii są być może częściej stosowane w formułowaniu prognoz dzisiaj.
Krok 4 - Interpretacja danych ekonomicznych Czwarty krok wymaga od decydentów zbadania, oceny i interpretacji zebranych danych ekonomicznych oraz późniejszej prognozy wygenerowanej na podstawie danych ekonomicznych. Decydenci oceniają dane i prognozy pod kątem dokładności, próbują rozwiązać nieścisłości w informacjach i - jeśli jest to uzasadnione - przypisują znaczenie ustaleniom. Analizując dane ekonomiczne i prognozy, decydenci powinni być w stanie rozpoznać i zidentyfikować potencjalne szanse i zagrożenia związane ze zmianami i rozwojem gospodarczym. W rezultacie są oni w stanie lepiej zrozumieć wpływ, jaki wywiera gospodarka, i lepiej przygotowani do podejmowania decyzji i planowania strategii. Procesu tego nie należy jednak postrzegać w sposób nadmiernie uproszczony. Dzisiejsze globalne powiązania gospodarcze sprawiają, że prognozowanie i analiza ekonomiczna są szczególnie złożone.
Krok 5 - Monitorowanie sił interweniujących Następnie siły interweniujące mogą wpływać i wpływają na aktywność ekonomiczną. Takie siły mogą zmieniać lub modyfikować wyniki i trendy ekonomiczne i muszą być przewidywane przez decydentów. Tak więc przewidywanie i monitorowanie manipulacji rządu dwoma potężnymi zestawami instrumentów ekonomicznych, polityką fiskalną i polityką pieniężną, staje się piątym krokiem w tym procesie. Polityka fiskalna to połączony program wydatków i podatków rządu, podczas gdy polityka pieniężna reprezentuje działania Systemu Rezerwy Federalnej, które wpływają na podaż i dostępność pieniądza i kredytu. Dwa ramiona polityki mogą działać, aby się wzajemnie uzupełniać, gdy poszukiwany jest silny bodziec lub ograniczenie. Mogą też działać w korzystnej lub szkodliwej opozycji, gdy jedno lub drugie jest zbaczane z kursu w kierunku nadmiernej stymulacji lub nadmiernego ograniczenia. Obserwatorzy często mogą przewidywać wdrożenie polityki fiskalnej i/lub pieniężnej przez rząd w oparciu o panujące warunki gospodarcze. Analitycy muszą wziąć pod uwagę wyniki takich wdrożeń.
Krok 6 - Wykorzystanie analizy ekonomicznej do podejmowania decyzji Na koniec decydenci wykorzystują wyniki analizy ekonomicznej do podejmowania decyzji. Bystrzy decydenci zdają sobie sprawę, że siły ekonomiczne są niekontrolowalne i że obecne strategie mogą wymagać dostosowania, aby poradzić sobie z lub przezwyciężyć utrudniające zmiany gospodarcze. Podchodzą ostrożnie do szans i zagrożeń odkrytych w wyniku ekonomicznego skanowania i analizy. Podchodzą do tego proaktywnie, wiedząc jednak, że analiza ekonomiczna pozwala im wybierać spośród alternatywnych podejść, jak wykorzystać ograniczone lub nietypowe zasoby i osiągnąć cele w najbardziej efektywny i opłacalny sposób.
W grudniu 1970 r. powołano do życia Agencję Ochrony Środowiska Stanów Zjednoczonych (EPA) jako niezależną agencję. Plan reorganizacji nr 3 z 1970 r. skonsolidował piętnaście komponentów z pięciu agencji w celu zgrupowania wszystkich działań regulacyjnych dotyczących środowiska w ramach jednej agencji. Większość z tych funkcji została umieszczona w Departamencie Spraw Wewnętrznych, Departamencie Rolnictwa oraz Departamencie Zdrowia, Edukacji i Opieki Społecznej. Celem EPA jest zapewnienie, że wszyscy Amerykanie i środowisko, w którym żyją, są bezpieczni przed zagrożeniami dla zdrowia. EPA ma szereg celów: czyste powietrze, czysta i bezpieczna woda, bezpieczna żywność, zapobieganie zanieczyszczeniom i ich ograniczanie, zarządzanie wodą i przywracanie składowisk odpadów, przekierowywanie międzynarodowego zanieczyszczenia oraz wiarygodne środki odstraszające od zanieczyszczeń. Ponadto EPA zajmuje się edukacją na temat zanieczyszczeń i ich zagrożeń dla środowiska. Pierwsze cztery cele dotyczą bezpośredniego otoczenia ludzi: czystego powietrza; czystej i bezpiecznej wody; bezpiecznej żywności; oraz zapobiegania zanieczyszczeniom i ograniczania zagrożeń w naszym środowisku. Pozostałe cele dotyczą edukacji, oczyszczania istniejących zanieczyszczeń i wysiłków na arenie globalnej. Obejmują one lepsze zarządzanie wodą, redukcję transgranicznych zagrożeń dla środowiska, rozszerzenie prawa Amerykanów do wiedzy o swoim środowisku, solidną obsługę, lepsze zrozumienie zagrożeń dla środowiska, wiarygodne środki odstraszające od zanieczyszczeń oraz większą zgodność z prawem i skuteczne zarządzanie. Oprócz tych celów EPA przyjęła szereg zasad, które mają służyć jako wskazówki dla kierownictwa w ustalaniu priorytetów. Wytyczne te mają na celu redukcję zagrożeń dla środowiska, zapobieganie zanieczyszczeniom, skupienie się na zdrowiu dzieci, nawiązywanie partnerstw z lokalnymi władzami, maksymalizację udziału społeczeństwa, podkreślanie rozwiązań opartych na społeczności, współpracę z plemionami indiańskimi i wybieranie opłacalnych rozwiązań. EPA jest również zaangażowana w bieżące programy edukacyjne, które podkreślają prawo społeczności do wiedzy o zagrożeniach dla środowiska. EPA musi egzekwować piętnaście lub więcej statutów lub ustaw, w tym Clean Air Act; Clean Water Act; Federal Food, Drug, and Cosmetic Act; Endangered Species Act; Pollution Prevention Act; i Federal Insecticide, Fungicide, and Rodenticides Act. EPA egzekwuje również inne prawa dotyczące zanieczyszczeń i substancji toksycznych. EPA odnotowała kilka znaczących sukcesów od momentu swojego powstania. W obszarze jakości powietrza: (1) ponad połowa dużych miast spełnia obecnie normy jakości powietrza; (2) emisje powszechnych zanieczyszczeń powietrza spadły średnio o 24 procent; i (3) poziom ołowiu we krwi u dzieci spadł o 75 procent. W obszarze jakości wody: (1) 60 procent dróg wodnych kraju jest bezpiecznych do wędkowania i pływania; (2) zakazano składowania odpadów w oceanach; i (3) ustanowiono normy dotyczące ścieków dla pięćdziesięciu gałęzi przemysłu. W obszarze zarządzania toksynami i pestycydami: (1) zakazano stosowania DDT; (2) wprowadzono bezpieczniejsze pestycydy; i (3) emisje toksyczne zmniejszono o 39 procent. Wreszcie, EPA była w stanie ustanowić wiele norm obejmujących szeroki zakres zanieczyszczeń.
Analiza sprawozdań finansowych to proces badania relacji między elementami sprawozdań finansowych i dokonywania porównań z odpowiednimi informacjami. Jest to cenne narzędzie wykorzystywane przez inwestorów i wierzycieli, analityków finansowych i inne osoby w procesach podejmowania decyzji związanych z akcjami, obligacjami i innymi instrumentami finansowymi. Celem analizy sprawozdań finansowych jest ocena wyników z przeszłości i bieżącej sytuacji finansowej oraz przewidywanie przyszłych wyników firmy. Inwestorzy kupujący akcje są przede wszystkim zainteresowani rentownością firmy i perspektywami uzyskania zwrotu z inwestycji poprzez otrzymywanie dywidend i/lub zwiększanie wartości rynkowej posiadanych akcji. Wierzyciele i inwestorzy kupujący papiery dłużne, takie jak obligacje, są bardziej zainteresowani płynnością i wypłacalnością: krótkoterminową i długoterminową zdolnością firmy do spłaty długów. Analitycy finansowi, którzy często specjalizują się w śledzeniu określonych branż, rutynowo oceniają rentowność, płynność i wypłacalność firm w celu formułowania rekomendacji dotyczących zakupu lub sprzedaży papierów wartościowych, takich jak akcje i obligacje. Analitycy mogą uzyskać przydatne informacje, porównując najnowsze sprawozdania finansowe firmy z jej wynikami z poprzednich lat i z wynikami innych firm z tej samej branży. Trzy podstawowe typy analizy sprawozdań finansowych są powszechnie znane jako analiza pozioma, analiza pionowa i analiza wskaźnikowa.
ANALIZA POZIOMA
Kiedy analityk porównuje informacje finansowe za dwa lub więcej lat dla jednej firmy, proces ten nazywa się analizą poziomą, ponieważ analityk czyta w poprzek strony, aby porównać dowolną pojedynczą pozycję, taką jak przychody ze sprzedaży. Oprócz porównywania kwot w dolarach, analityk oblicza zmiany procentowe z roku na rok dla wszystkich sald sprawozdań finansowych, takich jak gotówka i zapasy. Alternatywnie, porównując sprawozdania finansowe za kilka lat, analityk może woleć użyć odmiany analizy poziomej zwanej analizą trendu. Analiza trendu polega na obliczaniu sald sprawozdań finansowych każdego roku jako procentów pierwszego roku, znanego również jako rok bazowy. Gdy są wyrażone w procentach, liczby roku bazowego zawsze wynoszą 100 procent, a zmiany procentowe w stosunku do roku bazowego można określić.
ANALIZA PIONOWA
Podczas stosowania analizy pionowej analityk oblicza każdą pozycję w pojedynczym sprawozdaniu finansowym jako procent całości. Termin analiza pionowa ma zastosowanie, ponieważ liczby każdego roku są wymienione pionowo w sprawozdaniu finansowym. Suma używana przez analityka w rachunku zysków i strat to przychód ze sprzedaży netto, podczas gdy w bilansie to aktywa ogółem. To podejście do analizy sprawozdań finansowych, znane również jako procenty składowe, generuje sprawozdania finansowe o wspólnych rozmiarach. Bilanse i rachunki zysków i strat o wspólnych rozmiarach można łatwiej porównywać, niezależnie od tego, czy dotyczą one lat dla jednej firmy, czy różnych firm.
ANALIZA WSKAŹNIKOWA
Analiza wskaźnikowa umożliwia analitykowi porównywanie pozycji w pojedynczym sprawozdaniu finansowym lub badanie relacji między pozycjami w dwóch sprawozdaniach finansowych. Po obliczeniu wskaźników dla danych finansowych każdego roku analityk może następnie badać trendy dla firmy na przestrzeni lat. Ponieważ wskaźniki dostosowują się do wielkości, korzystanie z tego narzędzia analitycznego ułatwia porównania międzyfirmowe, jak i wewnątrzfirmowe. Wskaźniki są często klasyfikowane przy użyciu następujących terminów: wskaźniki rentowności (znane również jako wskaźniki operacyjne), wskaźniki płynności i wskaźniki wypłacalności. Wskaźniki rentowności są miernikami sukcesu operacyjnego firmy w danym okresie czasu. Wskaźniki płynności są miarami krótkoterminowej zdolności firmy do spłaty swoich długów, gdy stają się wymagalne, i do zaspokojenia nieoczekiwanych potrzeb w zakresie gotówki. Wskaźniki wypłacalności wskazują zdolność firmy do wywiązywania się ze swoich długoterminowych zobowiązań w sposób ciągły, a tym samym do przetrwania przez długi okres czasu. Oceniając, jak dobrze radzi sobie firma, analitycy zazwyczaj porównują wskaźniki firmy ze statystykami branżowymi, a także z jej własnymi wynikami z przeszłości.
OSTRZEŻENIA
Analiza sprawozdań finansowych, jeśli jest stosowana ostrożnie, może przynieść znaczące spostrzeżenia na temat informacji finansowych firmy i jej perspektyw na przyszłość. Jednak analityk musi być świadomy pewnych ważnych kwestii dotyczących sprawozdań finansowych i korzystania z tych narzędzi analitycznych. Na przykład kwoty w dolarach dla wielu rodzajów aktywów i innych pozycji sprawozdań finansowych są zwykle oparte na kosztach historycznych i w związku z tym nie odzwierciedlają kosztów wymiany ani korekt inflacyjnych. Ponadto sprawozdania finansowe zawierają szacunki licznych pozycji, takich jak koszty gwarancji i nieściągalne salda klientów. Znaczenie współczynników i procentów zależy od tego, jak dobrze kwoty w sprawozdaniach finansowych przedstawiają sytuację firmy. Porównania ze statystykami branżowymi lub wynikami konkurentów mogą być skomplikowane, ponieważ firmy mogą wybierać różne, choć równie akceptowalne, metody rozliczania zapasów i innych pozycji. Dokonywanie znaczących porównań jest również utrudnione, gdy firma lub jej konkurenci mają szeroko zdywersyfikowane operacje. Narzędzia analizy sprawozdań finansowych, obliczenia współczynników i procentów, są stosunkowo łatwe do zastosowania. Z drugiej strony zrozumienie treści sprawozdań finansowych nie jest prostym zadaniem. Ocena sytuacji finansowej firmy, jej wyników i perspektyw przy użyciu narzędzi analitycznych wymaga umiejętnego stosowania osądu analityka.
Analiza stanowiska pracy to termin używany do opisania procesu analizy stanowiska pracy lub zawodu pod kątem jego różnych komponentów, tj. struktury organizacyjnej, czynności zawodowych i treści informacyjnych. Proces ten prowadzi do powstania trafnej, aktualnej i dostosowanej bazy danych informacji związanych z pracą, którą można wykorzystać na wiele sposobów: do opracowywania konwencjonalnych, zindywidualizowanych, komputerowych i/lub dotyczących incydentów krytycznych (omówionych poniżej) programów i materiałów edukacyjnych i szkoleniowych; do tworzenia i klasyfikowania nazw stanowisk; do tworzenia opisów stanowisk; do przygotowywania schematów organizacyjnych; do przeprowadzania badań czasu i ruchu; do określania standardów zapewnienia jakości; oraz do opracowywania mierników oceny pracowników, zarówno pod kątem wiedzy, jak i wydajności. Analizy stanowisk pracy są również podstawą przygotowywania takich publikacji rządowych, jak Occupational Information Network O′Net, Standardowa Klasyfikacja Przemysłowa (SIC), Standardowa Klasyfikacja Zawodowa (SOC), Podręcznik Perspektyw Zawodowych i innych źródeł informacji opisujących sytuację zawodową (patrz Rysunek 1). Dwa terminy często używane zamiennie z analizą pracy to analiza zawodowa i analiza zadań. W literaturze analiza pracy i analiza zadań są najczęściej postrzegane jako to samo. Proces ten koncentruje się na analizie stanowiska pracy pod kątem jego struktury zawodowej, czynności zawodowych i treści informacyjnej. Następnie dane dostarczone przez analizę służą do organizacji i rozwoju programu szkolenia zawodowego. Natomiast analiza zadań stanowi integralną część procesu analizy pracy. Dokładniej, analiza zadań dotyczy procesu analizy konkretnego zadania pod kątem jego różnych elementów, tj. etapów realizacji; szczegółów etapów realizacji; tematów informacji technicznych; tematów informacji dotyczących doradztwa zawodowego i zawodowego; standardów realizacji; częstotliwości, ważności i złożoności; oraz narzędzi, sprzętu, materiałów, zaopatrzenia i odniesień technicznych. Informacje uzyskane w wyniku analizy zadań stanowią podstawę do opracowania działań edukacyjnych opartych na wiedzy i wydajności w ramach programu szkoleniowego. Wielu autorów i organizacji szczegółowo opisało proces przeprowadzania analiz stanowisk pracy . Podejścia analityczne różnych autorów i grup różnią się nieco pod względem organizacji i logiki proceduralnej. Niemniej jednak, każdy z nich analizuje dane stanowisko lub zajęcie z zamiarem zidentyfikowania jego elementów i włączenia ustaleń do rozwoju powiązanych "produktów", czyli programów i materiałów szkoleniowych, opisów stanowisk, klasyfikacji stanowisk itd. Trzy pytania wydają się być podstawowe dla większości autorów. Dotyczą one kwestii organizacji, działalności i treści informacyjnych:
• Jaka jest struktura zawodu?
• Czym zajmuje się pracownik?
• Co pracownik musi wiedzieć?
STRUKTURA ORGANIZACYJNA
Pierwsze pytanie dotyczy struktury lub ram analizowanego zawodu . Jeżeli dane pochodzące z analizy stanowiska pracy są wykorzystywane w sytuacji, gdy struktura organizacyjna ma istotne znaczenie dla opracowywanego "produktu", wówczas struktura zawodu może stanowić podstawę, na której opracowywana jest struktura organizacyjna produktu. Na przykład, hierarchiczna kolejność nazw zawodowych w funkcjonalnie powiązanej rodzinie zawodów może służyć jako podstawa do uporządkowania i nadania nazw jednostkom i kursom programu szkoleniowego wynikającego z analizy stanowiska pracy.
CZYNNOŚCI ZAWODOWE
Drugie pytanie dotyczy czynności pracownika zarówno pod względem zadań, jak i etapów realizacji. Po zidentyfikowaniu, zadania - czyli ukończone jednostki pracy - pełnią różne funkcje, od formułowania celów edukacyjnych w ramach jeszcze nieopracowanego programu szkoleniowego opartego na kompetencjach, po klasyfikację stanowisk i tworzenie opisów stanowisk. Etapy realizacji każdego zadania zostaną również wykorzystane w opracowaniu różnorodnych materiałów pokrewnych. Ilekroć problem stanowi procedura, w grę wchodzą etapy realizacji zadań. Posługując się przykładem ze szkolenia pracowników w zakresie umiejętności psychomotorycznych, sekwencja etapów realizacji prowadzi instruktora przez demonstrację etapów celu edukacyjnego, przez ćwiczenie przez studenta kroków proceduralnych, aż do ostatecznego określenia zdolności studenta do wykonania procesu w teście. W każdym z trzech działań edukacyjnych związanych z wydajnością procedura ma fundamentalne znaczenie dla ich identyfikacji i rozwoju.
ZAWARTOŚĆ INFORMACYJNA
Trzecie pytanie dotyczy identyfikacji komponentu wiedzy lub informacji danego zawodu. W zależności od autora, trzy najczęściej przywoływane rodzaje informacji to informacje techniczne, informacje ogólne oraz informacje dotyczące doradztwa zawodowego i kariery. Informacje techniczne to informacje, które pracownik musi znać, aby wykonać określone zadanie lub grupę zadań. Informacje techniczne dają pracownikowi możliwość formułowania osądów i podejmowania decyzji, aby wykonać zadanie(-a) w sposób bezpieczny i prawidłowy. Stanowią bazę wiedzy, na podstawie której pracownik może podejmować świadome decyzje wpływające na jego/jej wydajność w miejscu pracy i kontrolujące jego/jej wydajność. Informacje ogólne, chociaż odnoszą się do samej pracy lub do poszczególnych zadań wchodzących w jej skład, nie mają bezpośredniego wpływu na wykonywanie ani tej pracy, ani jej zadań składowych. Informacje ogólne uzupełniają działania pracowników, ale nie są kluczowe dla ich wyników. Na przykład szczegółowa wiedza na temat produkcji układów scalonych nie ma bezpośredniego wpływu na wydajność programisty komputerowego ani analityka systemów. Informacje dotyczące doradztwa zawodowego i kariery pozwalają pracownikom podejmować decyzje dotyczące siebie i miejsca pracy. Obejmują one informacje na takie tematy, jak krótkoterminowe, średnioterminowe i długoterminowe potrzeby zawodowe społeczności; zainteresowania i umiejętności zawodowe poszczególnych osób; praca, role i obowiązki zawodowe, umiejętności poszukiwania pracy, perspektywy zatrudnienia oraz lokalne, stanowe, krajowe i globalne trendy gospodarcze.
ZASTOSOWANIE
Poniżej przedstawiono konkretne zastosowania informacji uzyskanych z przeprowadzonej analizy stanowiska pracy. W niektórych przypadkach większość lub całość informacji jest wykorzystywana w opracowaniu produktu końcowego, w innych przypadkach wykorzystywana jest tylko część danych z analizy stanowiska pracy.
Opracowanie programu szkoleniowego/ Struktura organizacyjna, czynności zawodowe i treści informacyjne zidentyfikowane w analizie stanowiska pracy stanowią podstawę do opracowania zarówno struktury, jak i treści programu szkoleniowego. Struktura zawodu determinuje organizację elementów programowych programu szkoleniowego. Treść programu szkoleniowego zależy od czynności i informacji niezbędnych do wykonywania danego zawodu. W programie szkoleniowym opartym na kompetencjach tytuły zadań stają się tytułami odpowiadających im celów edukacyjnych. Odpowiednio, techniczne tematy informacyjne i etapy realizacji zadań stanowią podstawę do identyfikacji i organizacji działań edukacyjnych związanych z wiedzą i wydajnością, związanych z celami edukacyjnymi. Szkolenie "incydentów krytycznych" jest wynikiem zastosowania czynności i treści analizy stanowiska pracy w konkretnej sytuacji szkoleniowej. Jak omawia Davies (1981), metoda instruktażu oparta na incydencie krytycznym "koncentruje się na gromadzeniu informacji na temat kluczowych zadań, w szczególności tych, w których występują problemy" (s. 131). W przypadku tych zadań można opracować specjalne szkolenia, wykorzystując działania i treści informacyjne zidentyfikowane w analizie stanowiska pracy, a następnie przełożone na cele edukacyjne, programy nauczania i materiały dydaktyczne.
Klasyfikacja stanowisk. Klasyfikacja stanowisk służy do grupowania zawodów według poziomu funkcji lub umiejętności. Klasyfikowanie stanowisk według funkcji oznacza kategoryzację ich ze względu na podobieństwo funkcji lub czynności. Na przykład, nazwy takie jak "marketing", "księgowość", "produkcja", "zarządzanie" i "rozwój zasobów ludzkich" sugerują, że wszyscy pracownicy w jednym z tych zdefiniowanych obszarów wykonują podobny rodzaj czynności. Klasyfikacje stanowisk według funkcji są regularnie wykorzystywane w rozwoju organizacyjnym i przy tworzeniu schematów organizacyjnych. Natomiast klasyfikacja zawodów według poziomu umiejętności polega na użyciu terminów określających ilość doświadczenia zawodowego, poziom umiejętności oraz rodzaj wykształcenia i szkoleń. Terminy takie jak "uczeń", "czeladnik", "mistrz", "początkujący", "technik" i "specjalista" odzwierciedlają klasyfikację stanowisk według poziomu umiejętności. Klasyfikacja pracowników według poziomu umiejętności służy również kierownictwu organizacji w ustalaniu harmonogramów płac i wynagrodzeń pracowników.
Opisy stanowisk pracy/Tytuły stanowisk pracy. Opis stanowiska pracy to narracyjne stwierdzenie definiujące stanowisko pracy, czyli to, czego pracodawca oczekuje od pracownika w zakresie wydajności pracy. Jak stwierdził Winning , "opis stanowiska pracy [lub opis stanowiska] to lista obowiązków i funkcji wymaganych na danym stanowisku" . Opis stanowiska pracy kategoryzuje i definiuje czynności pracownika w sposób bardziej ogólny niż te używane w analizie stanowiska pracy. Opis ma na celu przedstawienie profilu stanowiska pracy, a nie opisanie zawodu w sposób szczegółowy, jak to ma miejsce w większości analiz stanowisk pracy. Wpisy w dobrze napisanym opisie stanowiska pracy są wprowadzane przez czasownik opisowy i zamykane przez rzeczownik definiujący czynność, na przykład "prowadzenie dokumentacji bankowej". Uzupełnieniem opisu stanowiska pracy jest tytuł stanowiska. Tytuły stanowisk pracy mają charakter ogólny, ponieważ odzwierciedlają wszystkie czynności zawarte w opisie stanowiska pracy. W pewnym sensie tytuł stanowiska pracy jest raczej rozszerzeniem opisu stanowiska pracy niż ukończoną analizą stanowiska pracy. Schematy organizacyjne. Schematy organizacyjne wizualnie przedstawiają relacje między pracownikami a liniami oraz obowiązki działów/jednostek i osób pracujących w organizacji. Informacje zaczerpnięte z opisu stanowiska pracy, wraz z informacjami zawartymi w towarzyszącej mu klasyfikacji stanowisk, stanowią podstawę do określenia ostatecznej konfiguracji i zawartości ukończonego schematu organizacyjnego. Badania czasu i ruchu. Badania czasu i ruchu zajmują się kwestiami produkcji przemysłowej i wydajności, ponieważ próbują zmierzyć czas poświęcony na zadanie, jakość produktu i bezpieczeństwo pracowników. Badania te przeprowadza się w miejscu pracy w normalnych warunkach. Ukończona analiza stanowiska pracy dostarcza badaczowi niezbędnej listy zadań i etapów realizacji, czyli czynności wykonywanych przez pracowników w trakcie wykonywania ich obowiązków. Celem badania czasu i ruchu jest wyeliminowanie marnowania czasu i określenie najefektywniejszego sposobu wykonania danego zadania.
Standardy zapewnienia jakości. Zgodnie z definicją Peacha (1997), "Zapewnienie jakości obejmuje wszystkie zaplanowane i systematyczne działania wdrażane w ramach systemu jakości". Opis stanowiska pracy dostarcza specjaliście ds. zapewnienia jakości listę zadań wykonywanych na danym stanowisku oraz kroki (procedury) wymagane do wykonania każdego z nich. Ponadto, kompleksowa analiza stanowiska pracy uwzględnia standardy wykonania zarówno dla zadań, jak i kroków wykonania. Te dwa zestawy kryteriów pomagają w określeniu wyników jakościowych zarówno zadania (produktu), jak i kroków proceduralnych (procesu). Te same dwa zestawy standardów jakości mają również zastosowanie w kształceniu i szkoleniu pracowników w miejscu pracy. Treść ukończonej analizy stanowiska pracy dostarczy instruktorom standardów stosowanych w przygotowaniu studentów do zatrudnienia.
Wzbogacanie pracy
Wzbogacanie pracy to sposób na motywowanie pracowników poprzez zwiększenie odpowiedzialności i różnorodności w ich obowiązkach. Wielu pracodawców tradycyjnie uważało, że pieniądze są jedynym prawdziwym czynnikiem motywującym pracowników i że aby zmusić ich do większej pracy, należy im zaoferować więcej pieniędzy. Chociaż może to być prawdą w przypadku niewielkiej grupy osób, większość pracowników lubi pracować i być doceniana za swoją pracę. Wzbogacanie pracy - dające pracownikom większą kontrolę nad planowaniem pracy i decydowaniem o sposobie jej wykonania - to jeden ze sposobów na wykorzystanie naturalnego pragnienia większości pracowników, aby wykonywać swoją pracę dobrze, być docenianym za swój wkład w firmę i czuć się częścią zespołu. Wzbogacanie pracy ma swoje korzenie w dwuczynnikowej teorii Fredericka Herzberga, zgodnie z którą dwa oddzielne wymiary wpływają na zachowanie pracownika w pracy. Pierwszy wymiar, znany jako czynniki higieny, obejmuje obecność lub brak czynników powodujących niezadowolenie z pracy, takich jak wynagrodzenia, środowisko pracy, przepisy i regulacje oraz przełożeni. Gdy te czynniki są słabe, praca jest niezadowalająca, a pracownicy nie są zmotywowani. Jednak pozytywne czynniki higieny nie motywują pracowników; po prostu zapobiegają ich niezadowoleniu. Drugi wymiar teorii Herzberga odnosi się do motywatorów, czyli czynników zaspokajających potrzeby wyższego rzędu, takie jak uznanie za dobrze wykonaną pracę, osiągnięcia oraz możliwość rozwoju i odpowiedzialności. To właśnie te motywatory faktycznie zwiększają satysfakcję z pracy i wydajność. Wzbogacanie pracy staje się w tym momencie ważną strategią, ponieważ wzbogacanie pracy pracowników może pomóc w zaspokojeniu niektórych ich potrzeb motywacyjnych. Uważa się, że istnieje pięć obszarów, które wpływają na motywację i wydajność pracy poszczególnych pracowników: różnorodność umiejętności, identyfikacja z zadaniem, znaczenie zadania, autonomia i informacja zwrotna. Wzbogacanie pracy dąży do znalezienia pozytywnych sposobów na zajęcie się każdym z tych obszarów, a tym samym na poprawę motywacji i satysfakcji osobistej pracowników. Różnorodność umiejętności obejmuje szereg różnych rodzajów umiejętności wykorzystywanych w danej pracy. Ten obszar jest ważny, ponieważ ciągłe wykorzystywanie tylko jednej umiejętności do wykonywania tego samego zadania może być dość nudne, co zazwyczaj prowadzi do spadku produktywności pracownika po pewnym czasie. Jednak wykorzystywanie różnorodnych umiejętności w pracy zazwyczaj sprawia, że pracownik jest bardziej zainteresowany pracą i zmotywowany. Jednym ze sposobów, w jaki firmy koncentrują się na tym obszarze, jest rotacja stanowisk, czyli przenoszenie pracowników z jednego stanowiska na drugie w firmie, co umożliwia im różnorodne zadania i pomaga zapobiegać nudzie. Chociaż proces ten może być kosztowny dla firmy, ponieważ pracownicy muszą przejść szkolenie w kilku różnych obszarach, koszty te są zazwyczaj równoważone przez wzrost morale i produktywności. Rotacja stanowisk daje również każdemu pracownikowi możliwość przekonania się, jak różne stanowiska w firmie się ze sobą łączą, i daje firmie większą elastyczność w realizacji zadań pod nieobecność pracowników. Rotacja stanowisk jest dobrym sposobem na wzbogacenie pracy pracowników, ale może również utrudniać ich wydajność: konieczność znajomości kilku różnych stanowisk, aby móc się rotować, może uniemożliwić pracownikom osiągnięcie biegłości w którymkolwiek z nich. Dlatego zalety i wady rotacji stanowisk jako strategii wzbogacania należy starannie rozważyć. Identyfikacja zadań to kwestia uzyskania widocznych rezultatów wykonania zadania. Możliwość zobaczenia końcowego rezultatu wykonywanej pracy jest ważnym czynnikiem motywującym pracowników. Jednym ze sposobów na jaśniejsze określenie tożsamości zadań jest rozszerzenie zakresu obowiązków, co oznacza dodanie większej liczby zadań i obowiązków do istniejącego stanowiska. Na przykład, zamiast budować tylko jeden element nawilżacza powietrza, zespół pracowników buduje cały produkt od początku do końca. Stosując rozszerzenie zakresu obowiązków jako strategię wzbogacania, ważne jest, aby rozszerzenie zakresu obowiązków dawało pracownikowi większą odpowiedzialność i większą różnorodność, a nie tylko więcej pracy. Znaczenie zadania odnosi się do tego, jak ważne jest ono dla innych w firmie, co jest ważne, aby pokazać pracownikom, jak wykonywana przez nich praca wpisuje się w pracę wykonywaną w pozostałej części organizacji. Jeśli pracownicy widzą, jak ich praca wpływa na innych, będzie to dla nich motywacją do wykonywania swoich obowiązków najlepiej, jak potrafią. Wiele firm zabiera nowych pracowników na wycieczkę po firmie i oferuje szkolenia na temat współpracy poszczególnych działów firmy. Aby pracownicy mogli akceptować i zarządzać odpowiedzialnością, ważne jest, aby wiedzieli, jak współpracują ze sobą różne obszary firmy; bez tej wiedzy bardzo trudno im podejmować decyzje. Umieszczenie pracowników z różnych działów firmy w zespołach planistycznych może również pomóc im zrozumieć znaczenie wykonywanych przez nich zadań. Autonomia obejmuje stopień swobody, niezależności i decyzyjności pracownika w realizacji powierzonych zadań. Większość ludzi lubi być odpowiedzialna; świadczy to o zaufaniu i pomaga motywować pracowników do jego spełniania. Odpowiedzialność może również przyspieszyć procesy pracy, umożliwiając pracownikowi podejmowanie decyzji bez konieczności oczekiwania na akceptację ze strony kierownictwa. Autonomia jest bardzo ważnym elementem wzbogacania pracy, ponieważ daje pracownikowi władzę i poczucie ważności. Rodzajem wzbogacania pracy, który restrukturyzuje pracę, aby jak najlepiej dopasować pracownika do stanowiska, jest przeprojektowanie stanowiska. Reorganizacja pracy może koncentrować się na łączeniu istniejących stanowisk, tworzeniu grup roboczych i/lub umożliwieniu bliższego kontaktu między pracownikami a poszczególnymi dostawcami lub klientami. Ideą stojącą za reorganizacją pracy jest dopasowanie pracowników do pracy, którą lubią i do której są najlepiej przygotowani. Zespoły samozarządzające to rodzaj organizacji pracy, w którym pracownicy są grupowani w zespoły i otrzymują określone wytyczne do przestrzegania oraz cele do osiągnięcia - a następnie pozostawiani sami sobie, aby te cele osiągnąć. Zespoły samozarządzające świadczą o zaufaniu firmy do pracowników i dają im poczucie siły i dumy z wykonywanej pracy. Informacja zwrotna opisuje, ile i jakiego rodzaju informacji na temat wydajności pracy otrzymuje pracownik. Jest to jeden z najważniejszych obszarów motywacji. Bez informacji zwrotnej pracownicy nie mają możliwości dowiedzenia się, czy robią coś poprawnie, czy niepoprawnie. Pozytywna informacja zwrotna pomaga motywować pracowników poprzez docenianie ich wysiłków włożonych w pracę. Chociaż nagrody pieniężne za dobrze wykonaną pracę mogą być silną motywacją, czasami równie ważne może być stwierdzenie: "wykonałeś naprawdę dobrą robotę nad tym projektem". Korygująca informacja zwrotna jest również ważna, ponieważ pozwala pracownikom określić obszary wymagające poprawy. Istnieje wiele różnych rodzajów działań i programów wzbogacających pracę, które firmy mogą wdrażać, aby zachęcać pracowników do uczestnictwa i zwiększać ich motywację. Atmosfera zespołowa to jeden ze sposobów na wzbogacenie pracy. Grupowanie pracowników w zespoły i dawanie im swobody w planowaniu, podejmowaniu decyzji i osiąganiu celów daje pracownikom poczucie ważności i odpowiedzialności. Może to również pomóc pracownikom w generowaniu kreatywnych pomysłów na usprawnienie działań w pracy, dając im możliwość bliskiej współpracy z innymi. Proszenie pracowników o wkład w strategie i plany firmy i zachęcanie ich do niego to kolejny sposób na wzbogacenie pracy. Często pracownicy mają największy wkład, ponieważ to oni faktycznie wykonują daną czynność na co dzień. Ceremonie wręczania nagród w firmach holdingowych również mogą pomóc w wzbogaceniu pracy i motywowaniu pracowników poprzez docenianie ich wkładu w rozwój firmy. Celem wzbogacania pracy jest poprawa jakości pracy pracownika, a tym samym motywowanie go do osiągania lepszych wyników. Jednak, aby wzbogacanie pracy zadziałało, pracownik musi chcieć i zaakceptować nowe sposoby realizacji zadań. Niektórym pracownikom brakuje umiejętności i wiedzy wymaganych do wykonywania zadań wzbogacających, podczas gdy inni są zadowoleni z rutynowych zadań, ponieważ uważają, że obecna sytuacja zawodowa jest stosunkowo bezstresowa. Jest prawdopodobne, że tego typu pracownicy nie lubią działań wzbogacających pracę i nie zaakceptują nowego sposobu działania. Dlatego też proszenie pracowników o wkład i utrzymywanie otwartych kanałów komunikacji jest kluczowe dla sukcesu programów wzbogacających pracę.
Przed i na początku lat 70. XX wieku kwestie bezpieczeństwa w miejscu pracy stały się istotnym problemem w Stanach Zjednoczonych. Brak było spójnych wytycznych zobowiązujących pracodawców do zapewnienia bezpiecznego i zdrowego środowiska pracy. Pracownicy doznawali urazów związanych z pracą, które zbyt często kończyły się śmiercią. Aby zaradzić tym problemom, Kongres uchwalił ustawę PL 91-596 (Ustawa o Bezpieczeństwie i Higienie Pracy z 1970 r.), która ustanowiła Administrację Bezpieczeństwa i Higieny Pracy (OSHA), federalną agencję kierowaną przez Zastępcę Sekretarza Pracy ds. Bezpieczeństwa i Higieny Pracy. OSHA ma strukturę funkcjonalną, a jej główne programy są pogrupowane w osiem dyrekcji (Programy Administracyjne, Budownictwo, Programy Zgodności, Operacje Federalno-Stanowe, Programy Norm Zdrowotnych, Polityka, Programy Norm Bezpieczeństwa i Wsparcie Techniczne), a także Urząd Statystyczny. Dyrekcje i biura są kierowane przez kadrę kierowniczą wyższego szczebla. Biura regionalne oraz podległe biura terenowe i okręgowe lub centra usługowe realizują różne programy. Misją OSHA, określoną w ustawodawstwie z 1970 roku, jest "zapewnienie każdemu pracującemu mężczyźnie i kobiecie w kraju bezpiecznych i zdrowych warunków pracy". W związku z tym OSHA opracowała i wdrożyła określone standardy i procedury egzekwowania, a także plany pomocy pracodawcom w zakresie przestrzegania przepisów, aby pomóc im w osiągnięciu i utrzymaniu zdrowych i bezpiecznych warunków pracy. Organizacje zatrudniające dziesięciu lub więcej pracowników podlegają przepisom OSHA, a te, które ich nie przestrzegają, mogą zostać ukarane wysokimi grzywnami. Na przykład, OSHA zaproponowała grzywnę w wysokości 46 300 dolarów dla huty, w której domniemane naruszenia zasad bezpieczeństwa kosztowały życie dwóch pracowników (Kane, 1998). Od czasu powstania OSHA liczba ofiar śmiertelnych w miejscu pracy spadła o połowę; jednak każdego dnia, według Kane′a (1998), około siedemnastu Amerykanów ginie w pracy. OSHA dąży do zwiększenia świadomości pracowników i zaangażowania w rozwiązywanie problemów związanych z bezpieczeństwem i higieną pracy poprzez gromadzenie i analizę danych w celu identyfikacji problemów związanych z bezpieczeństwem i higieną pracy, a także do osiągania rozwiązań poprzez regulacje, pomoc w przestrzeganiu przepisów i strategie egzekwowania. Aby egzekwować przepisy, OSHA przeprowadza niezapowiedziane inspekcje na miejscu. Dane na stronie internetowej OSHAFacts wskazują, że w roku fiskalnym 1997 OSHA przeprowadziła 34 264 inspekcje federalne i 56 623 stanowe oraz udokumentowała 87 710 naruszeń federalnych i 147 610 stanowych. Zarówno za naruszenia federalne, jak i stanowe nałożono kary w wysokości około 147 miliardów dolarów. Chociaż firmy zgadzają się, że miejsca pracy powinny być bezpieczne i zdrowe, wiele z nich napotkało trudności w spełnianiu standardów OSHA. Ponieważ właściciele małych firm uznali standardy OSHA za ograniczające finansowo i uważają kary nakładane przez OSHA za surowe, trwa ruch reformatorski. Izba Reprezentantów rozważa stopniową reformę ustawy OSHA. 17 marca 1998 r. zatwierdzono dwa projekty ustaw (H.R. 2877 i H.R. 2864) dotyczące programu konsultacji OSHA oraz zniesienia limitów inspekcji i kar. 27 marca podkomisja ds. ochrony siły roboczej (Workforce Protections) rozpatrzyła projekty ustaw rekomendujące powołanie paneli recenzentów nadzorowanych przez ekspertów w celu nadzorowania procesu stanowienia przepisów OSHA, a także ochronę przed postępowaniem egzekucyjnym dla pracodawców spełniających określone kryteria. Ponadto, ustawa o postępie bezpieczeństwa pracowników (SAFE) uchwalona w październiku 1997 r. zwalnia właścicieli małych firm z kar pieniężnych OSHA na dwa lata i zezwala na obecność inspektorów zewnętrznych. Pomimo trwających inicjatyw OSHAreform, nie uchwalono żadnego kompleksowego projektu ustawy reformującej, który wymagałby istotnych zmian w strukturze, procedurach lub standardach OSHA.
Audyty wykonania lub audyty wydajności to odpowiedniki "audytów operacyjnych" lub "audytów operacyjnych" w sektorze publicznym, przeprowadzane w celu ustalenia, czy działalność, programy lub projekty jednostki są prowadzone efektywnie i sprawnie. Biuro Rachunkowości Rządu (GAO) definiuje audyt wykonania w swoich Standardach Rachunkowości Rządowej, czyli Żółtej Księdze, jako:
Obiektywne i systematyczne badanie dowodów w celu zapewnienia niezależnej oceny działalności organizacji rządowej, programu, działalności lub funkcji w celu dostarczenia informacji służących poprawie odpowiedzialności publicznej i ułatwienia podejmowania decyzji przez strony odpowiedzialne za nadzór lub inicjowanie działań naprawczych.
Audyt efektywności składa się z dwóch części: (1) przeglądu oszczędności i efektywności oraz (2) przeglądu programu. Przegląd oszczędności i efektywności określa, czy zasoby zostały wykorzystane efektywnie. Przegląd programu natomiast określa, czy zasoby zostały wykorzystane efektywnie, tj. zgodnie z celem zamierzonym przez darczyńcę. Zatem oba przeglądy uzupełniają się wzajemnie, dając pełny obraz efektywności działania agencji. Typowy audyt efektywności, podobnie jak wszystkie inne audyty, składa się z trzech faz: planowania, pracy w terenie i raportowania. Faza planowania audytu efektywności zazwyczaj wymaga bardziej profesjonalnego osądu i zdrowego rozsądku niż faza planowania audytu finansowego, która ogranicza się do przeglądu sprawozdań finansowych. Planując audyt, audytor powinien najpierw określić szczegółowe cele audytu. Standardy audytu rządowego wymieniają następujące szczegółowe cele audytu, sformułowane w formie pytań, dla przeglądu oszczędności i efektywności:
1. Czy przestrzegano prawidłowych praktyk zakupowych?
2. Czy pozyskano zasoby o odpowiednim rodzaju, jakości i ilości po odpowiednich kosztach?
3. Czy zasoby były odpowiednio chronione i utrzymywane?
4. Czy unikano powielania wysiłków pracowników oraz prac, które nie przyniosły żadnego lub prawie żadnego celu?
5. Czy unikano przestojów i nadmiernego zatrudnienia?
6. Czy stosowano efektywne procedury operacyjne?
7. Czy wykorzystano optymalną ilość zasobów do produkcji lub terminowego dostarczania towarów lub usług o odpowiedniej ilości i jakości?
8. Czy przestrzegano przepisów prawa, które mogłyby znacząco wpłynąć na pozyskiwanie, ochronę i wykorzystanie zasobów jednostki?
9. Czy wdrożono i utrzymywano odpowiedni system kontroli zarządzania do pomiaru, raportowania i monitorowania oszczędności i efektywności programu?
10. Czy zgłoszono trafne i wiarygodne wskaźniki oszczędności i efektywności?
Szczegółowe cele, w formie pytań, wymienione w Standardach audytu rządowego na potrzeby przeglądu programu obejmują:
1. Czy opracowano właściwe, odpowiednie i istotne cele programu?
2. Czy określono stopień, w jakim program osiąga pożądany poziom rezultatów?
3. Czy oceniono skuteczność programu i/lub poszczególnych jego komponentów?
4. Czy zidentyfikowano czynniki hamujące osiągnięcie zadowalających wyników?
5. Czy kierownictwo rozważyło alternatywne rozwiązania dla realizacji programu, które mogłyby przynieść pożądane rezultaty w sposób bardziej efektywny lub przy niższych kosztach?
6. Czy program uzupełnia, dubluje, nakłada się lub koliduje z innymi powiązanymi programami?
7. Czy zidentyfikowano sposoby usprawnienia działania programów?
8. Czy zapewniono zgodność z przepisami prawa i regulacjami mającymi zastosowanie do programu?
9. Czy oceniono adekwatność systemu kontroli zarządczej do pomiaru, raportowania i monitorowania skuteczności programu?
10. Czy kierownictwo zgłosiło trafne i wiarygodne wskaźniki skuteczności programu?
Po ustaleniu szczegółowych celów istotnych dla audytu, audytor przeprowadza wstępną ankietę, aby uzyskać informacje niezbędne do opracowania programu audytu i oszacowania budżetu. W ramach wstępnej ankiety audytor spotyka się z kluczowymi pracownikami jednostki, dokonuje przeglądu odpowiedniej dokumentacji, takiej jak podręczniki zasad i procedur, oraz obserwuje pracowników jednostki podczas wykonywania przez nich obowiązków. Po zakończeniu wstępnej ankiety od audytora oczekuje się dogłębnego zrozumienia misji, celów, procedur operacyjnych i polityki jednostki. Taka wiedza umożliwia audytorowi sformułowanie wstępnych wniosków dotyczących celów audytu. Dobrze zarządzana agencja lub program przyjmie dobrze sformułowaną deklarację misji, zdefiniuje zestaw celów i zadań powiązanych z deklaracją misji oraz określi zestaw mierników efektywności, które dokładnie odzwierciedlają wyniki jednostki. W związku z tym audytor zazwyczaj dokonuje przeglądu istniejących misji, celów i zadań, aby określić ich zasadność. Podobnie, jednostka zazwyczaj identyfikuje przepisy i regulacje, które jej działalność lub programy muszą być przestrzegane. Jednakże, istotny problem pojawia się, gdy te elementy nie są obecne lub są niewłaściwie przygotowane. W takich przypadkach audytor musi albo przerwać audyt wykonania zadań i zażądać od jednostki opracowania brakujących elementów, albo może opracować elementy i pomóc jednostce w przyjęciu elementów rekomendowanych przez audytora. Praca w terenie w ramach audytu wykonania zadań polega na przeprowadzeniu testów audytowych wymienionych w programie audytu. Jeśli wstępna ankieta zakończyła się pomyślnie, część audytu obejmująca prace w terenie powinna zostać kontynuowana w celu potwierdzenia wstępnych wniosków wyciągniętych ze wstępnej ankiety. Audytor powinien jednak w pełni zbadać wyniki testów audytowych, które są sprzeczne z wstępnymi wnioskami i odpowiednio zmienić program audytu. Po zakończeniu testów audytowych audytor formułuje ostateczny wniosek dotyczący wykonania zadań przez jednostkę, który następnie przedstawia zainteresowanym stronom w projekcie raportu z audytu. Projekt jest następnie omawiany z kierownictwem jednostki i odpowiednio korygowany przed przekazaniem go odpowiednim stronom. Audytor powinien powrócić do jednostki po udzieleniu kierownictwu jednostki wystarczającej ilości czasu na wdrożenie wszelkich zaleceń zawartych w raporcie z audytu. Celem tej wizyty "kontrolnej" jest ocena stopnia, w jakim kierownictwo zastosowało się do ustaleń zawartych w raporcie z audytu. Kierownictwo jest odpowiedzialne za efektywne i wydajne zarządzanie organizacją. W sektorze nastawionym na zysk zazwyczaj oznacza to maksymalizację zysku lub dochodu netto. Jednak organizacje non-profit nie dysponują miernikami, takimi jak dochód netto lub zysk, które mogłyby posłużyć do alokacji zasobów. Przyjmują alternatywne mierniki efektywności i oceniają je w sposób rzetelnie odzwierciedlający wyniki. Audytorzy wewnętrzni są zatrudniani przez organizacje, aby wspierać kierownictwo w efektywnym i wydajnym zarządzaniu organizacją. Audytorzy wewnętrzni dokonują tego poprzez weryfikację skuteczności procesu kontroli wewnętrznej organizacji i proponowanie jego usprawnień. Przeprowadzając przeglądy kontroli wewnętrznej, audytor wewnętrzny powinien zidentyfikować potencjalne ryzyka, na jakie narażona jest organizacja, a następnie upewnić się, że istnieją najskuteczniejsze i najefektywniejsze mechanizmy kontroli, które im zaradzą. Przegląd kontroli wewnętrznej może przybierać różne formy, od prostego sprawdzenia obecności i funkcjonowania mechanizmów kontroli, po audyt operacyjny, obejmujący przegląd misji, celów i procedur operacyjnych organizacji. Do lat 80. XX wieku większość działów audytu wewnętrznego ograniczała zakres swoich audytów do sprawdzenia, czy przestrzegane są polityki i procedury organizacji. W trakcie tych audytów identyfikowano nieefektywne lub wadliwe procedury operacyjne, a audytorzy przedstawiali sugestie dotyczące oszczędności. Jednocześnie wiele organizacji wdrożyło kompleksowe zarządzanie jakością (TQM), które definiuje jakość w kategoriach satysfakcji klienta i mierzy ją za pomocą wskaźników efektywności, śledzonych w czasie lub porównywanych (benchmarkingowych) z innymi organizacjami. Ponadto organizacje borykały się ze wzrostem ryzyka prawnego wynikającego z przepisów i regulacji obowiązujących od lat 70. XX wieku aż do chwili obecnej. W sektorze publicznym darczyńcy i odbiorcy żądali rozliczalności w zamian za przekazane zasoby. Taka rozliczalność miała być udokumentowana w dokumencie opisującym wysiłki i osiągnięcia. Wszystkie te czynniki sprawiły, że organizacje początkowo żądały, a następnie żądały, aby ich audytorzy wewnętrzni bagatelizowali przestrzeganie polityk i procedur organizacji, a podkreślali efektywne i wydajne wykorzystanie zasobów oraz przestrzeganie przepisów i regulacji. Ta zmiana zakresu audytu nastąpiła jednocześnie w sektorach nastawionych na zysk i non-profit. Dostrzegane są korzyści i znaczenie audytów operacyjnych (wydajnościowych) dla poprawy wyników długoterminowych. Rozważmy na przykład dział zakupów organizacji. Podczas audytu finansowego audytor bierze pod uwagę tylko te aspekty działu zakupów, które bezpośrednio wpływają na sprawozdania finansowe. Zatem audytor rozważa, czy warunki zakupów są spisane w formie umów lub zamówień. Ponadto audytor sprawdza, czy wyznaczono odpowiednich urzędników, którzy mogą zatwierdzić zamówienie. Audytor w audycie finansowym może następnie sprawdzić, czy te dwie kontrole są rzeczywiście przeprowadzane, a mianowicie, czy dla wszystkich zakupów przygotowano prawidłowo zatwierdzone zamówienia. Z kolei audytor operacyjny najpierw określa cel działu zakupów - uzyskanie najlepszych warunków od dostawców materiałów i usług dostarczanych organizacji. Następnie audytor operacyjny uzyskuje podręcznik zasad i procedur dotyczących zakupów i dokonuje jego przeglądu w kontekście celu działu zakupów. Może być konieczne uzyskanie dodatkowych informacji, aby odpowiedzieć na pytania zadane podczas przeglądu audytora. Na przykład, jak skuteczny jest proces przetargowy lub ile pieniędzy faktycznie oszczędza się dzięki uzyskaniu ofert? Audytor operacyjny może stwierdzić, że agenci ds. zakupów otrzymują oferty na produkty o niewielkiej wartości, przy niewielkim zwrocie z włożonego wysiłku. Tego typu ustalenia mogą prowadzić do zmian w polityce i procedurach obowiązujących w biurze zakupów, co przełoży się na korzyści w postaci oszczędności kosztów dla organizacji.
Obecnie małe firmy generują ponad jedną trzecią produktu krajowego brutto, tworzą większość nowych miejsc pracy i zapewniają przestrzeń dla innowacji technologicznych. Na początku lat 50. XX wieku doceniono wartość małych firm w zapewnianiu stabilności amerykańskiej gospodarki. Wcześniej obietnice sukcesu zawodowego składane przez duże firmy/przemysł zbyt często okazywały się puste, a wielu rozczarowanych amerykańskich pracowników zaczęło akceptować ideę samozatrudnienia. Wraz ze wzrostem liczby przedsiębiorców szybko stało się oczywiste, że takie przedsięwzięcia potrzebują parasola ochronnego, aby przetrwać typowe dla małych firm trudności związane z rozpoczęciem działalności, nie wspominając o presji konkurencyjnej generowanej przez większe organizacje. W 1953 roku, aby rozwiązać ten problem, Kongres zatwierdził ustawę o Administracji Małych Przedsiębiorstw (SBA), na mocy której powołano do życia Agencję Małych Przedsiębiorstw (SBA). Administrator SBA kieruje realizacją kompleksowego zestawu programów finansowych i rozwoju biznesu, które zapewniają finansowanie o wartości około 11 miliardów dolarów rocznie małym firmom w całym kraju. SBA posiada 70 biur okręgowych w całym kraju oraz biura programowe w każdym stanie, a także w Dystrykcie Kolumbii, na Wyspach Dziewiczych i w Portoryko. Jako niezależna agencja federalna, SBA wspiera, doradza, asystuje i chroni interesy małych firm, opierając się na dwóch zasadach: zarządzaniu zorientowanym na jakość i dotarciu do klienta. SBA zapewnia pomoc finansową w formie gwarancji kredytowych, a nie bezpośrednich pożyczek, poprzez 14 specjalistycznych programów, aby pomóc przedsiębiorcom osiągnąć odpowiednią pozycję finansową, aby rozpocząć działalność gospodarczą i przezwyciężyć pierwsze kilka chudych lat niemowlęctwa. Zapewnia również doradztwo i wsparcie szkoleniowe dla kobiet, mniejszości, weteranów oraz właścicieli firm znajdujących się w niekorzystnej sytuacji społecznej i/lub ekonomicznej. Na przykład Biuro ds. Własności Firm Kobiet utworzyło sieć przedstawicielską właścicielek firm w każdym biurze okręgowym, Internetowe Centrum Biznesu Kobiet dostępne przez Internet oraz prawie 70 centrów biznesu dla kobiet w 40 stanach; Program Pożyczek Prekwalifikacyjnych dla Mniejszości pomaga kwalifikującym się firmom należącym do mniejszości w uzyskaniu wstępnej zgody na gwarancję pożyczki 7(a). Program Gwarancji Pożyczek 7(a) pomaga małym firmom, które nie są w stanie uzyskać rozsądnych warunków finansowania za pośrednictwem standardowych kanałów kredytowych, uzyskać finansowanie od pożyczkodawców z sektora prywatnego w ramach pożyczek gwarantowanych przez SBA. Chociaż SBA nie udziela dotacji na rozpoczęcie lub rozwój działalności gospodarczej, koordynuje i rozpowszechnia informacje o zasobach, aby zwiększyć świadomość inicjatyw biznesowych, o możliwościach doradztwa lub mentoringu dla początkujących menedżerów oraz o strategiach sukcesu w przedsiębiorczości. Ponadto zapewnia pomoc w przypadku klęsk żywiołowych i utworzył jednostkę koordynującą i ułatwiającą organizację konferencji transferu technologii dla małych firm. Aby scentralizować dostęp do pełnego zakresu pomocy technicznej i finansowej dla właścicieli małych firm zlokalizowanych w strefach rozwoju i społecznościach przedsiębiorstw, w 1994 roku SBA stworzyła Punkty Kapitałowe One-Stop. Partnerstwa między SBA a lokalną społecznością oferują kompleksową pomoc małym przedsiębiorstwom z wyjątkowego, łatwo dostępnego punktu sprzedaży detalicznej, zlokalizowanego na obszarze dotkniętym problemami gospodarczymi. Zazwyczaj są one skierowane do społeczności niedostatecznie obsługiwanych lub nowych rynków SBA.
Oprogramowanie arkuszy kalkulacyjnych to jedna z najpopularniejszych technologii gromadzenia, przetwarzania i wyświetlania danych. Arkusze kalkulacyjne zostały opracowane jako sposób porządkowania danych liczbowych za pomocą elektronicznej tabeli wierszy i kolumn oraz tworzenia modeli biznesowych, wykresów i raportów dotyczących danych finansowych, statystycznych i innych.
PAKIETY ARKUSZY KALKULACYJNYCH
Pakiety arkuszy kalkulacyjnych są dostępne dla komputerów mainframe, minikomputerów i komputerów osobistych. Dostępne są wersje dla różnych systemów operacyjnych, w tym DOS, Windows (różne wersje), Macintosh, Unix, Java, Linux i VMS. Funkcje arkuszy kalkulacyjnych są zawarte w pakietach do zarządzania finansami, a także w zintegrowanych pakietach oprogramowania. Użytkownicy mają do dyspozycji dziesiątki pakietów oprogramowania arkuszy kalkulacyjnych. Najbardziej znane pakiety to Microsoft Excel, Lotus 1-2-3 i Corel Quattro Pro. Te trzy pakiety są częścią zintegrowanych pakietów lub pakietów firm Microsoft Corporation, Lotus Development Corporation (należącej do IBM Corporation) i Corel Corporation. Ponadto dostępne są dziesiątki innych pakietów arkuszy kalkulacyjnych, wiele z nich w wersji "shareware", co daje użytkownikowi możliwość wypróbowania produktu przez ograniczony czas, a następnie uiszczenia opłaty za pozwolenie na korzystanie z pakietu po zakończeniu okresu testowego. Różne arkusze kalkulacyjne są oferowane w Internecie przez ich twórców, jako shareware lub do kupienia, a niektóre są dostępne do pobrania.
ZASTOSOWANIA ARKUSZY KALKULACYJNYCH
Arkusz kalkulacyjny to tabela reprezentująca informacje w formie arkusza kalkulacyjnego. Można go wizualizować jako duży arkusz papieru z wierszami i kolumnami, wzorowany na arkuszach kalkulacyjnych używanych przez księgowych do ręcznych obliczeń. Arkusz kalkulacyjny może mieć formę od małej, prostej tabeli tekstowej do dużego dokumentu, który umożliwia wykonywanie złożonych obliczeń i analiz statystycznych tysięcy danych (Shelly i in., 1998). Proste arkusze kalkulacyjne można wyświetlać na ekranie; bardziej złożone arkusze kalkulacyjne obejmują ogromną liczbę komórek i mogą być częściowo wyświetlane na ekranie. Siłą arkusza kalkulacyjnego jest możliwość przechowywania formuł i wyświetlania ich wyników. Funkcja przeliczania w arkuszach kalkulacyjnych pozwala użytkownikowi wprowadzać nowe dane do arkusza, co może mieć wpływ na inne sekcje arkusza, oraz wyświetlać wyniki nowych obliczeń. Ta funkcja "co by było, gdyby" arkuszy kalkulacyjnych jest cennym narzędziem dla użytkowników.
FORMAT ARKUSZY KALKULACYJNYCH
Oprogramowanie do obsługi arkuszy kalkulacyjnych porządkuje dane liczbowe w formacie tabeli, pionowo w kolumnach i poziomo w wierszach. Do arkusza kalkulacyjnego można wprowadzać trzy rodzaje danych: (1) wartości lub liczby, (2) nazwy lub etykiety oraz (3) formuły obliczeniowe. Wartości mogą być używane do podstawowych operacji arytmetycznych: dodawania, odejmowania, mnożenia i dzielenia. Etykiety identyfikują informacje w arkuszu i pomagają je uporządkować. Formuły wykonują obliczenia na danych oraz wyświetlają i przechowują wartości wynikowe. Komórka, będąca przecięciem wiersza i kolumny, może zawierać etykietę, wartość lub formułę do wykonywania obliczeń. Na ekranie wyświetlany jest jednocześnie tylko niewielki fragment arkusza kalkulacyjnego. Arkusze kalkulacyjne mogą zawierać miliony komórek, a plik arkusza kalkulacyjnego może zawierać wiele arkuszy kalkulacyjnych. Na przykład arkusze kalkulacyjne Lotus 1-2-3 (Lotus 1-2-3 Millennium, 1999) i Microsoft Excel (Getting Results with Microsoft Office 97, 1998) mają 256 kolumn i 65 536 wierszy. Każdy arkusz kalkulacyjny może zatem zawierać miliony komórek informacji. Plik arkusza kalkulacyjnego może również zawierać wiele arkuszy. Arkusze kalkulacyjne to bardzo wydajne i rozbudowane arkusze elektroniczne. Arkusz kalkulacyjny obsługuje takie proste funkcje, jak dodawanie, odejmowanie, mnożenie i dzielenie. Operatory arytmetyczne służą do reprezentowania funkcji: dodawanie (+), odejmowanie (-), mnożenie (x) i dzielenie (ccc). Na przykład, wpis w komórce D3 "+ B3 + C3" spowoduje, że arkusz kalkulacyjny zsumuje zawartość komórek B3 i C3 i zapisze sumę w komórce D3. Symbol na początku formuły identyfikuje wpis jako formułę, a nie etykietę. W przykładzie = B3 + C3 znak równości identyfikuje wpis jako formułę. Prosty arkusz kalkulacyjny można ulepszyć za pomocą narzędzi dostępnych w arkuszu. Można zmieniać style czcionek (np. pogrubienie), rozmiary i kroje pisma, dodawać kolor do tła komórek lub etykiet, a także używać wykresów do ilustrowania danych wyświetlanych w arkuszu. Arkusz kalkulacyjny jest początkowo domyślnie skonfigurowany z określoną szerokością kolumn, wysokością wierszy i formatem wpisów. Jeśli etykiety są dłuższe niż dozwolona szerokość kolumny, arkusz kalkulacyjny nie "traci" dodatkowych znaków; zamiast tego nie są one wyświetlane, jeśli komórka po ich prawej stronie zawiera wpis. Użytkownik może zmienić szerokość kolumny i wysokość wiersza, aby poprawić wygląd wpisów. Wartości są początkowo przechowywane w arkuszu kalkulacyjnym w najprostszej postaci; na przykład wpis 1050,00 USD zostanie zapisany jako 1050. Użytkownik ma wówczas w arkuszu kalkulacyjnym narzędzia do formatowania tych wpisów. Dane liczbowe mogą być sformatowane jako dolary i centy, z przecinkami oddzielającymi setki i tysiące, w różnych formatach dla różnych krajów, z określoną liczbą miejsc po przecinku, w formie wykładniczej lub w innych formatach. Po wprowadzeniu formuły komórka wyświetla wynik obliczeń. Jednak sama formuła jest zachowywana. Aby wyświetlić w komórce samą formułę, a nie jej wyniki, użytkownik może wybrać format "tekstowy". Formuła wprowadzona na przykład jako +C3 +D3 -E3 może wyświetlić wynik 25. Jeśli komórka jest sformatowana w formacie "tekstowym", zamiast obliczonej odpowiedzi zostanie wyświetlona formuła. Zestaw danych można opisać w arkuszu kalkulacyjnym, określając komórkę początkową w lewym górnym rogu danych i komórkę końcową w prawym dolnym rogu danych. Na przykład, aby zidentyfikować prostokąt, który zaczyna się od komórki A1 i sięga do komórki D3, adres zakresu będzie wyglądał następująco: A1 . . . D3. Arkusze kalkulacyjne identyfikują zakres symbolem oznaczającym "do". W przykładzie A1
D3, formacie używanym w wielu arkuszach kalkulacyjnych, zakres zostałby zinterpretowany jako "Komórka A1 do Komórki D3". Przykład arkusza kalkulacyjnego pokazano na rysunku 1. Wiersze od 1 do 10 przedstawiają arkusz kalkulacyjny; wiersze od 11 do 20 są duplikatem tego arkusza, a tekst formuł jest wyświetlany w wierszach od 17 do 20. W wierszu 3, BUDŻET NA PIERWSZY KWARTAŁ, nagłówek całego arkusza, jest przykładem etykiety. Nagłówki kolumn i pozycje w kolumnie A to etykiety; kolumny od B do D to wartości, które są sumowane w kolumnie E za pomocą formuł. Formuły w kolumnie E sumują liczby za styczeń, luty i marzec dla każdej pozycji. Na dole arkusza kalkulacyjnego wiersz "Razem" jest również wynikiem użycia formuł do sumowania kolumn. Nagłówek "BUDŻET NA PIERWSZY KWARTAŁ" oraz nagłówki kolumn pokazują, jak zmiany czcionek mogą poprawić czytelność i atrakcyjność arkusza kalkulacyjnego. Komórki można sformatować, pogrubiając, podkreślając lub pisząc kursywą; można dodać kolor lub cieniowanie tła; a także zmienić kroje i rozmiary czcionek. W przykładowym arkuszu kalkulacyjnym nagłówki główne i kolumn zostały pogrubione dla podkreślenia. Wartości można sformatować. W przykładowym arkuszu kalkulacyjnym wartości w wierszach od 7 do 10 zostały sformatowane do dwóch miejsc po przecinku z przecinkami. Użytkownik może wybrać żądane formatowanie z menu. Dane z arkusza kalkulacyjnego można również wybrać do wykresów, czyli wizualnych reprezentacji tych danych. Komórki wybiera się poprzez ich podświetlenie. Pakiety arkuszy kalkulacyjnych mogą przedstawiać jeden zestaw danych w formie trójwymiarowej lub wykresy. Wykresy stają się częścią arkusza kalkulacyjnego i mogą być przechowywane na tej samej stronie co arkusz kalkulacyjny lub jako osobna strona bądź arkusz kalkulacyjny. Przykładowy wykres dla arkusza kalkulacyjnego budżetu opisanego powyżej przedstawiono na rysunku 2. Wykres przedstawia sumy wartości z komórek E7-E9 arkusza kalkulacyjnego, podzielone na kategorie według komórek A7-A9. Wykres kołowy to tylko jeden z kilku dostępnych wykresów. Oprogramowanie oferuje kroki umożliwiające dodanie nagłówka do wykresu i legendy lub listy etykiet dla danych na wykresie.
MAKRA W ARKUSZACH KALKULACYJNYCH
Makro to seria poleceń, które automatyzują zadania arkusza kalkulacyjnego, usprawniają złożone procedury lub tworzą aplikacje. Na przykład makro wstawiające imię i nazwisko użytkownika, nazwę firmy i datę do arkuszy kalkulacyjnych może być przechowywane i używane wielokrotnie. Użytkownik może wprowadzić makro do pliku arkusza kalkulacyjnego lub do biblioteki makr, czyli pliku arkusza zawierającego makra. Aby utworzyć makro, użytkownik wprowadza polecenia potrzebne do wykonania zadania, nadaje makrze nazwę i zapisuje je w pliku. Aby użyć makra, użytkownik wybiera je po nazwie z menu i uruchamia arkusz kalkulacyjny. Kroki są wykonywane automatycznie. W przypadku często wykonywanych, złożonych zadań makro ułatwia użytkownikowi uniknięcie błędów, ponieważ kroki są przechowywane w pliku i przywoływane w razie potrzeby.
ARKUSZE KALKULACYJNE W ZINTEGROWANYCH PAKIETACH
Zintegrowane pakiety oprogramowania, które zawierają kilka rodzajów oprogramowania w jednym, zazwyczaj zawierają arkusz kalkulacyjny. Informacje można kopiować z arkusza kalkulacyjnego do innych pakietów oprogramowania, takich jak edytor tekstu. Arkusze kalkulacyjne można łączyć z plikami w innym oprogramowaniu w pakiecie, dzięki czemu zmiany wprowadzone w arkuszu kalkulacyjnym są automatycznie uwzględniane w powiązanym dokumencie. Na przykład, tabelę z arkusza kalkulacyjnego można połączyć z dokumentem edytora tekstu, tak aby wszelkie zmiany w komórkach arkusza kalkulacyjnego zmieniały zawartość tabeli w dokumencie edytora tekstu. Ta funkcja sprawia, że arkusz kalkulacyjny jest bardzo wydajnym narzędziem do analizy i raportowania danych w różnych formatach.
Nie ma wątpliwości, że inwestowanie na giełdzie może być jednym z najbardziej ekscytujących sposobów zarabiania pieniędzy. Nic nie może się równać z dreszczykiem emocji towarzyszącym obserwowaniu, jak mało znana akcja, którą wybrałeś, staje się gorącym tematem, być może podwajając swoją cenę - a potem podwajając ją wielokrotnie. Jednak jak w przypadku każdej inwestycji, potencjalne ryzyko jest równe zyskom, dlatego inwestorzy, którzy chcą grać na giełdzie, powinni być w pełni poinformowani, zanim się zaangażują.
JAK DZIAŁA RYNEK GIEŁDOWY?
Akcja stanowi jednostkę własności w spółce. Kupując akcje, stajesz się współwłaścicielem firmy. W związku z tym korzystasz z każdego wzrostu wartości spółki i cierpisz, gdy spółka osiąga słabe wyniki. Masz również prawo do udziału w zyskach generowanych przez spółkę. Akcje są kupowane i sprzedawane na rynkach zwanych giełdami papierów wartościowych. Sama giełda nie kupuje ani nie sprzedaje akcji, ani nie ustala ich ceny; jest jedynie forum, na którym osoby fizyczne i instytucje mogą handlować akcjami. Giełdy papierów wartościowych odgrywają kluczową rolę w gospodarce kapitalistycznej. Umożliwiają one osobom fizycznym zakup akcji tysięcy firm i stanowią dla nich ważne źródło kapitału na ekspansję, wzrost oraz badania i rozwój.
JAK INWESTOR KUPUJE AKCJE?
Oto, w dwóch krokach, co dzieje się, gdy inwestor decyduje się kupić lub sprzedać określone akcje. Najpierw opiekun klienta w domu maklerskim otrzymuje zlecenie kupna lub sprzedaży, które może przybrać jedną z kilku form:
? Zlecenie o liczbie lotów. Zlecenie kupna lub sprzedaży 100 akcji, uznawane za standardową jednostkę transakcyjną.
? Zlecenie o liczbie lotów nieparzystych. Zlecenie kupna lub sprzedaży mniej niż 100 akcji.
? Zlecenie rynkowe. Zlecenie kupna lub sprzedaży po najlepszej dostępnej cenie.
? Zlecenie z limitem ceny. Zlecenie kupna lub sprzedaży po określonej cenie.
? Zlecenie stop. Zlecenie mające na celu ochronę zysków lub ograniczenie strat poprzez wezwanie do sprzedaży akcji, gdy ich cena spadnie do określonego poziomu.
? Zlecenie ważne do odwołania (GTC). Zlecenie, które pozostaje otwarte do momentu jego realizacji lub odwołania przez inwestora.
Po drugie, po otrzymaniu zlecenia jest ono wysyłane na salę giełdy. Makler giełdowy domu maklerskiego otrzymuje zlecenie i realizuje je na odpowiednim stanowisku transakcyjnym. Potwierdzenie transakcji jest przekazywane opiekunowi klienta w lokalnym biurze, który powiadamia inwestora. Co ciekawe, cały proces może zająć zaledwie dwie lub trzy minuty.
JAKIE SĄ DOSTĘPNE RODZAJE AKCJI?
Istnieją dwa rodzaje akcji: zwykłe i uprzywilejowane. Akcje zwykłe. Każdego roku setki nowych emisji akcji, znanych jako pierwsze oferty publiczne (IPO), są sprzedawane publicznie. Chociaż życie ludzkie kończy się w rękach przedsiębiorcy pogrzebowego, dla akcji zwykłych zaczyna się w rękach subskrybenta, który sprzedaje akcje po ustalonej cenie grupie początkowych nabywców, którzy z kolei "oddają" inwestycję, aż trafi ona na "ulicę" - czyli Ciebie, inwestora. IPO mają swoich zwolenników i przeciwników. Jeśli zależy Ci na zarobieniu dużych pieniędzy na IPO, litery oznaczają "natychmiastową okazję do zysku". Jeśli jesteś sceptykiem, akronim ma tylko jedno znaczenie - "prawdopodobnie jest zawyżona cena". Akcja zwykła reprezentuje jednostkę własności, czyli kapitał, w spółce emitującej. Każda akcja zwykła zazwyczaj ma wartość nominalną, która jest mniej lub bardziej arbitralną wartością ustaloną w statucie spółki i ma niewielki związek z rzeczywistą wartością rynkową akcji. Na wartość rynkową wpływa wiele czynników, w tym potencjalna zdolność dochodowa spółki, jej kondycja finansowa, wyniki finansowe, historia wypłaty dywidend oraz ogólne warunki prowadzenia działalności. Posiadanie akcji zwykłej wiąże się z pewnymi przywilejami:
1. Udział w zyskach. Rada dyrektorów korporacji spotyka się co roku, aby ustalić kwotę zysków korporacji, która zostanie wypłacona akcjonariuszom. Ta dystrybucja, znana jako dywidenda, będzie się różnić w zależności od bieżącej rentowności spółki. Można ją całkowicie pominąć, jeśli spółka nie generuje bieżących zysków lub jeśli rada zdecyduje się przeznaczyć zyski na rozwój.
2. Udział w kontroli. Posiadacze akcji zwykłych mają prawo głosu w sprawach polityki korporacyjnej w stosunku jednego głosu na każdą posiadaną akcję. Jednakże drobny inwestor posiadający zaledwie kilka akcji ma niewielki lub żaden praktyczny wpływ na decyzje korporacyjne.
3. Roszczenie do aktywów. W przypadku likwidacji spółki, posiadacze akcji zwykłych mają prawo do udziału w aktywach firmy po zaspokojeniu wszystkich długów i wcześniejszych roszczeń.
Istnieją cztery główne kategorie akcji zwykłych, z których każda najlepiej sprawdza się w przypadku konkretnej strategii inwestycyjnej i celu.
1. Akcje blue chip. Akcje wysokiej jakości, czyli blue chip, emitowane są przez dobrze prosperujące korporacje z wieloletnim udokumentowanym sukcesem, wzrostem zysków i regularnymi wypłatami dywidend. Akcje blue chip charakteryzują się zazwyczaj stosunkowo wysoką ceną i oferują stosunkowo niską stopę zwrotu. Są stosunkowo bezpieczną inwestycją.
2. Akcje dochodowe. Akcje dochodowe zapewniają wyższą niż przeciętna stopę zwrotu z inwestycji. Są one zazwyczaj emitowane przez firmy o stabilnej sytuacji, które nie muszą reinwestować dużej części zysków każdego roku.
3. Akcje wzrostowe. Emitowane przez firmy, które spodziewają się szybkiego wzrostu w nadchodzących latach, akcje wzrostowe charakteryzują się często niskim bieżącym dochodem, ponieważ firma przeznacza większość swoich zysków na badania i ekspansję. Jednak wartość akcji może szybko wzrosnąć, jeśli firma osiągnie wyniki zgodne z oczekiwaniami.
4. Akcje spekulacyjne. Akcje spekulacyjne nie mają udokumentowanej historii ani długiej historii dywidend. Akcje emitowane przez mało znane firmy lub nowo powstałe korporacje, wysoko notowane akcje "glamour" emitowane przez firmy z nowych obszarów działalności oraz tanie akcje groszowe - wszystkie te akcje można uznać za spekulacyjne. Jak w przypadku każdej inwestycji spekulacyjnej, istnieje możliwość osiągnięcia ogromnego zysku - ale również znaczne ryzyko utraty całości.
Akcje uprzywilejowane Akcje uprzywilejowane, podobnie jak akcje zwykłe, reprezentują własność akcji spółki. Jednak posiadacze akcji uprzywilejowanych mają pierwszeństwo w dochodach spółki w porównaniu z posiadaczami akcji zwykłych; stąd nazwa "akcje uprzywilejowane". Podobnie, posiadacze akcji uprzywilejowanych mają pierwszeństwo w dochodach spółki w przypadku likwidacji, ale nie mają prawa głosu. Akcje uprzywilejowane mają również pewne charakterystyczne cechy związane z wypłatą dywidend. Zwykle za każdą akcję uprzywilejowaną wypłacana jest stała, z góry określona roczna dywidenda. Ta stała dywidenda może być wyrażona w dolarach (na przykład 10 USD za akcję) lub jako procent wartości nominalnej akcji. Musi zostać wypłacona przed wypłatą dywidend posiadaczom akcji zwykłych. Jednak dywidendy z akcji uprzywilejowanych nie są uważane za dług spółki - w przeciwieństwie na przykład do odsetek należnych od obligacji korporacyjnych - ponieważ firma nie jest zobowiązana do wypłaty dywidend. Jeśli spółka przynosi straty, rada dyrektorów może podjąć decyzję o wstrzymaniu wypłaty dywidendy za dany rok. Aby chronić akcjonariuszy przed nieuzasadnionymi stratami, większość akcji uprzywilejowanych jest emitowana z kumulacją dywidendy. Jeśli dywidenda nie zostanie wypłacona od akcji uprzywilejowanych z kumulacją dywidendy, jej kwota jest przenoszona na kolejny okres, a zarówno bieżące, jak i przeszłe niewypłacone dywidendy muszą zostać wypłacone, zanim akcjonariusze akcji zwykłych będą mogli otrzymać jakąkolwiek dywidendę.
JAKIE SĄ ZALETY I WADY AKCJI?
Jak każda inwestycja, akcje mają swoje zalety i wady.
Zalety:
1. Potencjał wzrostu. Gdy spółka ma potencjał wzrostu wartości i zysków, jej akcje również. Jeśli wybierzesz odpowiednie akcje lub grupę akcji, możesz osiągnąć znaczny zysk i to stosunkowo szybko. Historia pokazuje, że rynek akcji generalnie charakteryzował się trendem wzrostowym, a liczba lat wzrostu przewyższała liczbę lat spadku w stosunku ponad trzy do jednego.
2. Płynność. Akcje notowane na głównych giełdach można kupować i sprzedawać szybko i łatwo po łatwych do ustalenia cenach.
3. Możliwe korzyści podatkowe. Akcje wzrostowe, które wypłacają niskie dywidendy lub nie wypłacają ich wcale, co pozwala na reinwestowanie zysków spółki, stanowią skuteczną ochronę podatkową. Wraz ze wzrostem wartości spółki rośnie również wartość akcji, które stanowią formę dochodu odroczonego podatkowo, ponieważ nie trzeba płacić podatku od tych zysków do momentu sprzedaży akcji.
Wady
1. Ryzyko. Inwestowanie w akcje nie daje gwarancji zysku. Firmy mogą upaść, ceny akcji mogą spaść, a Ty możesz stracić swoją inwestycję. Pamiętaj o powiedzeniu pewnego zatroskanego inwestora:
"Nie zależy mi tak bardzo na zwrocie z inwestycji, jak na samym zwrocie z inwestycji".
2. Prowizje maklerskie. Większość inwestorów potrzebuje pomocy i porady maklera giełdowego, gdy angażuje się w rynek. Jednak wysokie prowizje maklerskie mogą znacznie zniweczyć zyski. Ponieważ jedna opłata jest pobierana przy zakupie akcji, a inna przy ich sprzedaży, w efekcie jesteś zmuszony płacić dwa razy. Niezwykle dobrze poinformowani inwestorzy powinni rozważyć skorzystanie z usług brokera oferującego zniżki, który oferuje niewielkie lub żadne doradztwo inwestycyjne, ale pobiera znacznie niższe prowizje przy obrocie akcjami.
3. Złożoność. Rynek akcji jest skomplikowany, a ilość wiedzy potrzebnej do osiągnięcia sukcesu jest ogromna. Inwestorzy, którym brakuje cierpliwości, czasu lub umiejętności, aby zdobyć wiedzę o rynku, często kupują i sprzedają pod wpływem impulsu, minimalizując w ten sposób swoje zyski i maksymalizując straty.
PODSUMOWANIE
Nigdy nie zapominaj, że za każdym razem, gdy kupujesz akcje, ktoś je sprzedaje. Możesz kupić akcje, ponieważ wierzysz, że inwestycja jest dobra i cena wzrośnie. Jednak osoba sprzedająca te same akcje uważa inaczej, więc tylko jedna z was będzie miała rację. Pomyśl o tym w ten sposób, a staniesz się realistycznym i konserwatywnym graczem.
Benchmarking to proces porównywania wyników organizacji lub firmy z wynikami innych organizacji lub firm przy użyciu obiektywnych i subiektywnych kryteriów. Proces ten porównuje programy i pozycje strategiczne konkurentów lub wzorowych organizacji z tymi w firmie, przeglądając jej status w celu wykorzystania jako punktów odniesienia przy podejmowaniu decyzji i celów organizacji. Porównanie sposobu, w jaki organizacja lub firma wykonuje określoną czynność, z metodami konkurenta lub innej organizacji wykonującej to samo, jest sposobem na zidentyfikowanie najlepszych praktyk i nauczenie się, jak obniżyć koszty, zmniejszyć liczbę defektów, zwiększyć jakość lub poprawić wyniki związane z doskonałością organizacji lub firmy. Organizacje i firmy stosują benchmarking, aby określić, gdzie dane wejściowe, procesy, dane wyjściowe, systemy i funkcje znacznie różnią się od danych wejściowych, procesów, danych wyjściowych, systemów i funkcji konkurentów lub innych. Częstym pytaniem jest: Jaka jest najlepsza praktyka dla określonej czynności lub procesu? Uzyskane dane są następnie wykorzystywane przez organizację lub firmę do wprowadzania zmian w jej działaniach w celu osiągnięcia standardu najlepszych praktyk, jeśli ich nie są najlepsze. Porównanie z konkurentami i wzorcowymi organizacjami jest pomocne w określeniu, czy zdolności lub procesy organizacji lub firmy są mocnymi czy słabymi stronami. Istotne korzystne odchylenia od benchmarków wejściowych, procesowych i wyjściowych stają się podstawą strategii, celów i zadań. Często powodem przeprowadzania benchmarkingu jest ogólna idea, że poprawa jest możliwa. Benchmarking oznacza zatem poszukiwanie i znajdowanie organizacji lub firm, które robią coś w najlepszy możliwy sposób i uczenie się, jak to robią, aby je naśladować. Organizacje lub firmy często próbują porównywać się z najlepszymi na świecie, a nie z najlepszymi w swojej branży. Problemem z benchmarkingiem jest to, że może on ograniczyć skupienie się na tym, co już jest robione. Poprzez naśladowanie bieżących wzorcowych procesów, benchmarking jest narzędziem lub techniką zarządzania nadrabianiem zaległości, a nie sposobem, w jaki organizacja lub firma może uzyskać dominację menedżerską lub udział w marketingu. Benchmarking może sprzyjać nowym pomysłom lub procesom, gdy kierownictwo wykorzystuje niekonkurencyjne organizacje lub firmy spoza własnej branży jako podstawę benchmarkingu. Co się stanie, jeśli nowe pomysły nie zostaną wygenerowane? Możliwe, że nikt w innej organizacji lub firmie nie miał świetnego pomysłu, który można by zastosować do danych wejściowych, procesu lub wyniku, które organizacja próbuje ulepszyć lub zmienić poprzez benchmarking. Benchmarking nie jest analizą konkurencji. Benchmarking jest podstawą zmiany. Chodzi o naukę. Organizacja przeprowadzająca analizę benchmarkingową wykorzystuje informacje znalezione w procesie do ustalenia priorytetów i ukierunkowania ulepszeń procesu, które mogą zmienić praktyki biznesowe lub produkcyjne. Benchmarking zwykle przyjmuje jedną z czterech form. Benchmarking ogólny bada działania, które są lub mogą być wykorzystywane w większości firm. Ten typ benchmarkingu najszerzej wykorzystuje zbieranie danych. Jedną z trudności jest zrozumienie, w jaki sposób procesy przekładają się na różne branże. Jednak benchmarking ogólny może często skutkować drastyczną zmianą poglądów organizacji na temat jej zdolności do wydajności i przeprojektowaniem procesów biznesowych. Benchmarking funkcjonalny bada podobne praktyki i procesy w organizacjach lub firmach z innych branż. Ten typ benchmarkingu jest okazją do przełomowych ulepszeń poprzez analizę procesów o wysokiej wydajności w różnych branżach i organizacjach. Benchmarking konkurencyjny porównuje procesy organizacji z procesami bezpośrednich konkurentów. W benchmarkingu konkurencyjnym konsultant lub inna strona trzecia, a nie sama organizacja, zbiera i analizuje dane ze względu na ich zastrzeżony charakter. Benchmarking wewnętrzny porównuje procesy lub praktyki w organizacji lub firmie w czasie w świetle ustalonych celów. Zalety benchmarkingu wewnętrznego obejmują łatwość zbierania danych i definiowanie obszarów do przyszłych badań zewnętrznych. Podstawową wadą benchmarkingu wewnętrznego jest mniejsze prawdopodobieństwo, że przyniesie on znaczące przełomy w zakresie udoskonalenia procesów. Każda forma benchmarkingu ma swoje zalety i wady, a niektóre są prostsze do przeprowadzenia niż inne. Każde podejście do benchmarkingu może być ważne dla analizy i udoskonalenia procesu. Przełomowe ulepszenia są zazwyczaj przypisywane funkcjonalnym i generycznym typom benchmarkingu. Osiem kroków jest zazwyczaj stosowanych w procesie benchmarkingu
1. Określ procesy, działania lub czynniki, które mają zostać poddane ocenie porównawczej, oraz ich główne cechy.
2. Określ, jaka forma ma zostać użyta: ogólna, funkcjonalna, konkurencyjna czy wewnętrzna.
3. Określ, kto lub co jest celem oceny porównawczej: firma, organizacja, branża lub proces.
4. Określ konkretne wartości oceny porównawczej, zbierając i analizując informacje z ankiet, wywiadów, informacji branżowych, kontaktów bezpośrednich, publikacji biznesowych lub handlowych, czasopism technicznych i innych źródeł informacji.
5. Określ najlepsze praktyki dla każdego elementu oceny porównawczej.
6. Oceń proces, do którego mają zastosowanie oceny porównawcze, i ustal cele i cele udoskonalenia.
7. Wdrażaj plany i monitoruj wyniki.
8. Ponownie skalibruj wewnętrzne podstawowe oceny porównawcze.
Powtarzającym się problemem, który należy rozwiązać podczas ośmiu kroków, jest określenie kryteriów, aby zapewnić, że nie wystąpią niedokładności lub niespójności, które sprawią, że jakiekolwiek porównanie będzie bezsensowne. Osiem kroków procesu benchmarkingu można podsumować jako analizę ulepszeń. Oznacza to, że organizacja bada inną organizację, aby dowiedzieć się, co ona robi i jak to robi. Podczas dochodzenia ustala się, co idzie dobrze, a co źle. Informacje te są następnie wykorzystywane do ulepszania działań lub procesów. Gdy działania i procesy organizacji przeprowadzającej dochodzenie są równe lub lepsze od pomiarów znalezionych podczas dochodzenia, nie ma uzasadnienia dla żadnych zmian, ponieważ organizacja badająca ma lepsze praktyki. Innym poglądem na benchmarking jest analiza luk w organizacji. Organizacja określa, czego jej brakuje pod względem tego, co wie i jak robi rzeczy. Niedobory, które inicjują analizę luk, mogą dotyczyć działań i procesów lub taktyk i strategii. Organizacja musi następnie ustalić, w czym inna organizacja jest dobra, co można ulepszyć lub zmienić na lepsze. Przeprowadza się bardzo systematyczne badanie organizacji z najlepszymi praktykami, aby odkryć, co jest robione, jak to jest robione, jak to jest wdrażane i jak to pasuje do operacji organizacji. Wyniki systematycznego badania stają się następnie podstawą rewizji lub modyfikacji dla organizacji przeprowadzającej badanie. Działania benchmarkingowe zazwyczaj gromadzą informacje na temat obowiązków, projektu programu, obiektów operacyjnych, wiedzy technicznej, wizerunku marki, poziomów lub integracji, talentów menedżerskich oraz kosztów lub wyników finansowych. Dane finansowe lub kosztowe są często kategorią budzącą największe obawy, ponieważ są to czynniki w działaniach wejściowych, przetwarzających i wyjściowych organizacji lub firmy. Benchmarking jest często określany jako "sygnał ostrzegawczy". Organizacje i firmy dokonują benchmarkingu z wielu powodów: chcą określić, gdzie spędzają swój czas i jaką wartość wnoszą, lub są ciekawe, jak wypadają w porównaniu z innymi. Dzięki wiedzy zdobytej w wyniku benchmarkingu organizacje i firmy na nowo definiują swoje role, dodają więcej wartości, obniżają koszty i poprawiają wyniki. Branża elektroniczna ma unikalny styl benchmarkingu. Tutaj benchmarking polega na uruchomieniu zestawu standardowych testów w systemie w celu porównania jego wydajności z wydajnością innych. Innymi słowy, jest to narzędzie do pomiaru mocy i wydajności systemów i aplikacji sprzętowych i programowych, a także pojemności systemu. Istnieją cztery kategorie benchmarkingu w branży elektronicznej:
• Benchmark oparty na aplikacji uruchamia rzeczywiste aplikacje lub części aplikacji w pełnej lub zmodyfikowanej wersji.
• Benchmark syntetyczny emuluje aktywność aplikacji.
• Test odtwarzania wykorzystuje dzienniki jednego typu wywołania systemowego (np. wywołania dysku) i odtwarza wywołania w izolacji.
• Test inspekcyjny ćwiczy system lub komponent w celu emulowania aktywności aplikacji.
Benchmarki syntetyczne i odtwarzania służą do uzyskania ogólnego poglądu na to, jak działa system lub komponent. Jeśli dostępne są testy oparte na aplikacji, które odpowiadają aplikacji, są one wykorzystywane do udoskonalenia oceny. Benchmarki inspekcyjne służą do określenia, czy system lub komponent działa prawidłowo. Te testy wykorzystują dobrze zdefiniowaną metodologię testowania opartą na rzeczywistym wykorzystaniu systemu komputerowego. Mierzą wydajność w sposób deterministyczny i powtarzalny, który pozwala administratorowi systemu ocenić wydajność i pojemność systemu. Benchmarki zapewniają sposób określania parametrów dostrajania, niezawodności, wąskich gardeł i pojemności systemu, które mogą dostarczyć informacji marketingowych i zakupowych. Chociaż benchmarking w branży elektronicznej jest mechanizmem lub procesem testowania, jest również techniką uczenia się, zmiany i doskonalenia procesów. Benchmarking jest skutecznym sposobem zapewnienia ciągłej poprawy lub postępu w kierunku celów strategicznych i priorytetów organizacyjnych. Prawdziwa korzyść z benchmarkingu wynika ze zrozumienia procesów i praktyk, które umożliwiają przeniesienie najlepszych praktyk lub wydajności do organizacji. W najlepszym przypadku benchmarking podkreśla nie tylko procesy, jakość i wyniki, ale także znaczenie identyfikacji i zrozumienia czynników napędzających działania.
Budżet to plan finansowy na nadchodzący okres. Budżet kapitałowy z kolei obejmuje proponowane przez organizację długoterminowe duże projekty. Ta sekcja koncentruje się na budżecie. Zarówno podmioty publiczne, jak i prywatne uczestniczą w procesie budżetowania. Budżet rządowy zaczyna się od prognozowania źródeł i kwot dochodów i przydziela potencjalne wpływy między projekty i programy ustawowo wymagane na podstawie prognozowanych potrzeb i nacisków społecznych. Podmioty rządowe faktycznie rejestrują budżety w księgach rachunkowych, na podstawie których można dokonywać wydatków. Budżet to ilościowy plan działań, który identyfikuje zasoby potrzebne do realizacji celów i zadań organizacji. Obejmuje zarówno aspekty finansowe, jak i niefinansowe. Budżetowanie to proces przygotowywania planu, powszechnie nazywanego budżetem. Budżet główny obejmuje budżety operacyjne i budżety finansowe. Budżety operacyjne identyfikują wykorzystanie zasobów w działaniach operacyjnych. Obejmują one budżety produkcyjne, budżety zakupów, budżety zasobów ludzkich i budżety sprzedaży. Budżety finansowe identyfikują źródła i odpływy środków na budżetowane działania oraz oczekiwane wyniki operacyjne na dany okres. Niektóre odmiany budżetów to budżety ciągłe i budżety stale aktualizowane. Zamiast przygotowywać jeden budżet na nadchodzący rok, w budżecie ciągłym aktualizuje się budżet na kolejne dwanaście miesięcy pod koniec każdego miesiąca lub kwartału. Taki budżet pozostaje bardziej aktualny i istotny. Dobry budżet wykorzystuje dane historyczne jako bazę i punkt odniesienia, ale jednocześnie uwzględnia przewidywane koszty i wolumeny w oparciu o kompleksową wiedzę i zrozumienie czynników wewnętrznych i zewnętrznych, które wpływają na działalność.
SKŁADNIKI GŁÓWNEGO BUDŻETU
Główny budżet obejmuje budżet sprzedaży, który pokazuje oczekiwaną sprzedaż w jednostkach i dolarach. Firma handlowa musi zaplanować budżet na towary, które musi kupić w celu odsprzedaży; te zakupy stają się jej kosztem sprzedaży. Główny budżet organizacji produkcyjnej obejmuje budżet produkcji, który wykorzystuje budżet sprzedaży i poziomy zapasów przewidywane na początku i na końcu okresu, aby określić, ile wyprodukować. Budżet produkcji musi zostać rozbity na budżety na materiały bezpośrednie, robociznę bezpośrednią i narzuty produkcyjne. Materiały bezpośrednie i robocizna bezpośrednia to pozycje wyraźnie identyfikowalne w gotowym produkcie. Narzuty produkcyjne obejmują wszystkie koszty produkcji z wyjątkiem materiałów bezpośrednich i robocizny bezpośredniej, takich jak amortyzacja maszyn, media i nadzór. Budżet materiałów bezpośrednich rozkłada produkcję na podstawowe składniki; ilości do zakupu są przewidywane na podstawie oczekiwanych poziomów zapasów na początku i na końcu okresu. Z pomocą działu zakupów obliczane są ceny potrzebnych materiałów, aby uzyskać budżet zakupów materiałów. Budżet robocizny bezpośredniej wykorzystuje wytyczne inżynierii przemysłowej i potrzeby produkcyjne w celu oszacowania wymagań dotyczących pracy. Dział kadr podaje stawki za pracę dla wymaganych poziomów umiejętności. Koszty ogólne szacuje się na podstawie poziomu produkcji i odpowiednich czynników kosztowych (tj. czynników powodujących wahania kosztów). Niektóre koszty ogólne uważa się za zmienne, ponieważ zmieniają się wraz z poziomem produkcji. Inne uważa się za stałe, ponieważ poziom produkcji nie wpływa na wysokość tych kosztów. Na przykład zakłada się, że koszt nadzoru nad produkcją jest taki sam niezależnie od tego, ile jest produkowane w ciągu zmiany w zakładzie. Można zatem oszacować koszty produkcji i koszt jednostkowy towarów, które mają być wyprodukowane. Koszt sprzedanych towarów można teraz określić na podstawie poziomów zapasów wyrobów gotowych. Następnie szacuje się koszty sprzedaży i ogólne koszty administracyjne, biorąc pod uwagę koszty, które zmieniają się wraz ze sprzedażą, takie jak prowizja od sprzedaży, a także koszty stałe, które pozostają takie same niezależnie od poziomu sprzedaży, takie jak czynsz za biuro. Zebrane dotychczas informacje dają wszystko, czego potrzeba do przygotowania prognozowanego rachunku zysków i strat. W tym momencie opracowuje się budżet gotówkowy. Pozycja ta rozpoczyna się od gotówki na początku okresu plus gotówka, która zostanie wygenerowana poprzez ściąganie należności, sprzedaż gotówkową i inne źródła minus przewidywane minus wypłaty gotówki, które obejmują wypłaty wynagrodzeń, płatności podatków i należności do zapłaty w zależności od warunków płatności. Wynikowe saldo gotówki może być ujemne - więcej wypłat niż wpływów; w takim przypadku określa się potrzeby pożyczkowe. Dodatnie saldo gotówki może być większe niż potrzeba na wydatki operacyjne; taka nadwyżka gotówki może zostać zdeponowana na tymczasowym rachunku inwestycyjnym. Ostatnią częścią przygotowania budżetu głównego jest prognozowany bilans, w którym rejestrowane są przewidywane saldo gotówki, inwestycje, należności, zapasy, aktywa trwałe, należności do zapłaty, wynagrodzenia do zapłaty, podatki do zapłaty, zobowiązania długoterminowe i konta kapitałowe, aby zapewnić równowagę obu stron równania; tj. aktywa = zobowiązania + kapitał własny
PROCES BUDŻETOWANIA
Budżetowanie jest - lub powinno być - wynikiem pracy zespołowej. Budżet odgórny to budżet, który jest zasadniczo narzucany organizacji przez kadrę zarządzającą wyższego szczebla. Może to być skuteczny sposób przygotowania budżetu, ale z powodu braku uczestnictwa pracowników takie budżety często niosą ze sobą poziom niechęci i oporu pracowników, co prowadzi do problemów z wdrożeniem tego, co jest proponowane. Pracownicy nie czują się właścicielami budżetu, w którym nie brali udziału. Z drugiej strony, budżet partycypacyjny lub oddolny zaczyna się od określenia przez pracowników w każdym dziale swoich potrzeb i wymagań w celu osiągnięcia celów firmy. Ponieważ pracownicy czują się właścicielami takich budżetów, starają się sprostać lub przekroczyć te oczekiwania. Często można osiągnąć równowagę między tymi dwoma skrajnościami. Kadra zarządzająca powinna uczestniczyć w ustalaniu tonu i dostarczaniu wytycznych i parametrów, w ramach których budżet będzie ustalany. Należy wprowadzić zachęty, aby osoby, które osiągną lub przekroczą oczekiwania budżetowe, otrzymały odpowiednie nagrody za swoje wysiłki. Muszą również istnieć wytyczne zniechęcające do budżetowych luzów i nadużyć, w wyniku których żądane kwoty budżetu przekraczają przewidywane potrzeby, aby departament wyglądał lepiej i zbierał nagrody. Z drugiej strony bardzo napięty budżet może okazać się zniechęcający i nieosiągalny. Niezależnie od przyjętego podejścia, ważne jest, aby zdać sobie sprawę, że budżet powinien służyć jako mapa i wytyczne w przewidywaniu przyszłości. Najwyższe kierownictwo musi traktować go poważnie, aby pracownicy również traktowali go poważnie. Jednocześnie budżet nie powinien być postrzegany jako ścisły i niezmienny dokument. Jeśli pojawią się możliwości, okoliczności się zmienią i rozwiną się nieprzewidziane sytuacje, nie ma powodu, dla którego budżet miałby być przeszkodą w eksplorowaniu i korzystaniu z takich możliwości. Wiele firm tworzy komitet budżetowy, który nadzoruje przygotowywanie i wykonywanie budżetu. Budżet można również postrzegać jako narzędzie, które pomaga w przezwyciężaniu luki komunikacyjnej między różnymi częściami organizacji. Sprzedaż, produkcja, zakupy, odbiór, stosunki przemysłowe, promocja sprzedaży, magazynowanie, informatyka, skarb, kontrola jakości i wszystkie inne działy widzą swoje role i rozumieją role innych graczy w osiąganiu celów organizacji. Takie uczestnictwo wymaga również negocjacji budżetowych między różnymi stronami procesu budżetowego, aż do sfinalizowania budżetu. Zgodność celów występuje, gdy cele pracowników i cele firmy stają się ze sobą powiązane i połączone. Budżet, który nie uwzględnia celów pracowników, często zawodzi. Sfinalizowanie budżetu wymaga akceptacji przez zainteresowane działy oraz zatwierdzenia i podpisania przez najwyższe kierownictwo. Jeśli okoliczności ulegną zmianie z powodu takich czynników, jak zmiana asortymentu produktów, kosztów, cen sprzedaży, wynegocjowanych stawek pracy lub specyfikacji technicznych, może zaistnieć potrzeba rewizji budżetu.
INNE TECHNIKI BUDŻETOWANIA
Budżet przyrostowy to budżet przygotowywany na podstawie danych z poprzedniego roku, uwzględniający takie czynniki, jak inflacja. Chociaż takie podejście jest stosowane przez niektóre podmioty rządowe, większość ludzi nie pochwala takiej praktyki, ponieważ jest ona sprzeczna z całą ideą budżetu, który ma być obliczonym i mądrym przewidywaniem przyszłego biegu wydarzeń z należytym uwzględnieniem wszystkich potencjalnych czynników. Z drugiej strony budżet zerowy to budżet, który niczego nie bierze za pewnik. Zaczyna się od punktu zerowego dla każdego elementu budżetowego i działu każdego roku i próbuje uzasadnić każdy dolar wydatków. Chociaż niektóre branże wdrożyły taką metodę wcześniej, po raz pierwszy zastosowano ją przy przygotowywaniu budżetu stanu Georgia na początku lat 70., a później przy przygotowywaniu budżetu federalnego pod koniec lat 70. podczas administracji prezydenta Cartera. Jednak wkrótce z niej zrezygnowano, ponieważ wygenerowana dokumentacja i ramy czasowe niezbędne do wykonania tego zadania okazały się zbyt uciążliwe dla rządu federalnego. Budżetowanie kaisen, termin zapożyczony z języka japońskiego, to podejście budżetowe, które wyraźnie wymaga ciągłego doskonalenia i uwzględnia wszystkie oczekiwane usprawnienia w budżecie wynikające z takiego procesu. Budżetowanie oparte na działaniach to technika, która koncentruje się na kosztach działań lub czynnikach kosztowych niezbędnych do produkcji i sprzedaży. Takie podejście ułatwia ciągłe doskonalenie. Łatwo osiągalny budżet często nie wydobywa najlepszych wysiłków pracowników. Cel budżetowy, który jest bardzo trudny do osiągnięcia, może zniechęcić menedżerów nawet do prób jego osiągnięcia. Dlatego cele budżetowe powinny być trudne, a jednocześnie osiągalne
MONITOROWANIE BUDŻETU
Elastyczny budżet modyfikuje budżet do rzeczywistego poziomu wydajności. Oczywiście, jeśli pierwotny budżet jest przygotowany na przykład na tysiąc jednostek produktu, ale wyprodukowano dwa tysiące jednostek, porównanie pierwotnego budżetu z rzeczywistą wielkością produkcji nie dostarcza znaczących informacji. W związku z tym budżetowane koszty jednostkowe dla wszystkich kosztów zmiennych można wykorzystać i pomnożyć przez rzeczywistą wielkość produkcji, aby uzyskać elastyczną zmianę proporcjonalnie do poziomu produkcji dla pierwszych i do poziomu sprzedaży dla drugich kosztów. Jednak koszty stałe, takie jak czynsz, zwykle nie zmieniają się wraz z poziomem produkcji lub sprzedaży. Dlatego te budżetowane koszty nie są dostosowywane i pozostają nienaruszone, nawet jeśli wielkość sprzedaży i produkcji może różnić się od pierwotnie budżetowanych poziomów. Ostatecznie dobry budżet to taki, który nie tylko wykorzystuje dobre techniki budżetowania, ale także opiera się na solidnej wiedzy na temat firmy, jak również czynników zewnętrznych, które na nią wpływają. Budżet służy jako narzędzie planowania dla całej organizacji, jak również jej podjednostek. Zapewnia ramy odniesienia, z którymi można porównać rzeczywistą wydajność. Zapewnia sposób określania i badania odchyleń. Pomaga również firmie w ponownym planowaniu na podstawie otrzymanych informacji zwrotnych, biorąc pod uwagę zmieniające się warunki. Osiągalny, sprawiedliwy i partycypacyjny budżet jest również dobrym narzędziem do komunikacji, zaangażowania pracowników i motywacji.
′′Czy zatrudnienie jest niższe czy wyższe od poziomu z poprzedniego miesiąca?′′ ′′Co stało się z cenami w ciągu ostatniego miesiąca?′′ Na takie pytania - i tysiące innych dotyczących szerokiego zakresu tematów związanych z pracą - odpowiadają pracownicy Biura Statystyki Pracy (BLS). Kiedy BLS zostało powołane przez Kongres 27 czerwca 1884 r., jego misja została określona następującymi słowami: ′′Ogólnym celem i obowiązkami Biura Pracy jest pozyskiwanie i rozpowszechnianie wśród obywateli Stanów Zjednoczonych przydatnych informacji na tematy związane z pracą, w bardziej ogólnym i kompleksowym znaczeniu tego słowa, a w szczególności w odniesieniu do kapitału, godzin pracy, dobrobytu społecznego, intelektualnego i moralnego.′′ BLS jest niezależną krajową agencją statystyczną, która zbiera, przetwarza, analizuje i rozpowszechnia niezbędne dane statystyczne wśród obywateli Stanów Zjednoczonych, Kongresu Stanów Zjednoczonych, innych agencji federalnych, władz stanowych i lokalnych, przedsiębiorstw i pracowników. Prezydent mianuje szefa BLS, komisarza, za zgodą Senatu na określony okres, który nie pokrywa się z okresem jego administracji. BLS różni się od działań Departamentu Pracy w zakresie tworzenia polityki i egzekwowania prawa. BLS jest bezstronne, z silnym zaangażowaniem w uczciwość i obiektywizm; jego dane są wiarygodne ze względu na standardy utrzymywane w całej agencji. Główne obszary działalności BLS są następujące:
• Zatrudnienie i bezrobocie
• Ceny i warunki życia
• Wynagrodzenie i warunki pracy
• Produktywność i technologia
• Prognozy zatrudnienia
• Statystyki dotyczące bezpieczeństwa i zdrowia
Zatrudnienie i bezrobocie: Oprócz miesięcznych danych dotyczących zatrudnienia i bezrobocia, BLS dokonuje kompleksowego podziału wieku, płci oraz składu rasowego i etnicznego siły roboczej, a także branż i zawodów, w których zatrudnieni są pracownicy. Monitorowane są również inne cechy, w tym wzorce zatrudnienia regionalnego i stopień uczestnictwa w pracy nastolatków, osób czarnoskórych, Latynosów, kobiet i starszych Amerykanów. Ceny i warunki życia: Każdego miesiąca przygotowywany jest indeks cen konsumpcyjnych (CPI) i indeks cen producentów (PPI). BLS raportuje również, jak gospodarstwa domowe wydają swoje dochody. Wynagrodzenia i warunki pracy: Przeprowadzane są kompleksowe badania wynagrodzeń pracowników - płac i świadczeń - odnoszące się do zawodów, branż i obszarów kraju. Inicjatywa rozpoczęta w 2000 r. będzie obejmować krajowe indeksy kosztów zatrudnienia, poziomy kosztów zatrudnienia i częstość świadczeń pracowniczych.
Produktywność i technologia: To biuro opracowuje wskaźniki produktywności dla branż i głównych sektorów gospodarki USA. Ponadto zapewnia porównania kluczowych serii statystyk pracy BLS, a także szkolenia i pomoc techniczną w zakresie statystyk pracy dla osób z innych krajów.
Prognozy zatrudnienia: Istnieje duże zainteresowanie prognozami dostarczanymi przez tę jednostkę BLS. Informacje o przyszłym wzroście zatrudnienia - i charakterze tego wzrostu - mają kluczowe znaczenie dla urzędników publicznych, przedsiębiorstw, młodych ludzi przygotowujących się do kariery oraz osób opracowujących programy edukacyjne na wszystkich poziomach. Statystyki bezpieczeństwa i zdrowia: Zakres urazów i chorób w miejscu pracy jest przedmiotem zainteresowania biura, które opracowuje statystyki bezpieczeństwa i zdrowia. Analizowane i podsumowywane informacje obejmują urazy i choroby związane z pracą według branży, charakteru urazu lub choroby oraz zaangażowanych pracowników. Istnieje również kompilacja zgonów związanych z pracą. Dostarczone statystyki są przydatne w opracowywaniu norm bezpieczeństwa i zdrowia, kontrolowaniu zagrożeń w pracy oraz w alokacji zasobów na usługi inspekcji, szkoleń i konsultacji w miejscu pracy.
SPOSÓB PRACY I ŹRÓDŁA INFORMACJI
BLS, podobnie jak wszystkie agencje federalne, działa w otwartym środowisku. W miarę rozważania zmian, są one omawiane z użytkownikami i komitetami doradczymi oraz opisywane w publikowanych materiałach. Stosowane są uczciwe praktyki informacyjne; zapewnione jest zachowanie poufności indywidualnych odpowiedzi. BLS obiecuje społeczeństwu, że użytkownicy otrzymają pomoc w zrozumieniu zastosowań i ograniczeń dostarczanych danych. BLS gromadzi informacje od grup biznesowych i pracowniczych w całym kraju za pośrednictwem dobrowolnych rad doradczych. Rady zostały powołane w 1947 r.; obecni członkowie spotykają się z personelem BLS w celu omówienia takich kwestii, jak planowane programy i codzienne problemy, z którymi BLS mierzy się przy zbieraniu, rejestrowaniu i analizowaniu statystyk, a także przy publikowaniu raportów.
REAKCJA NA ZMIANY W MIEJSCU PRACY
Szybkie zmiany technologiczne, globalizacja rynków światowych i zmiany demograficzne to siły, które zmieniają miejsce pracy w USA w odniesieniu do charakteru i rodzajów stanowisk, składu siły roboczej oraz wykształcenia, umiejętności i doświadczeń pracowników. BLS w swoim Zmienionym Planie Strategicznym na lata 1997-2002 stwierdziło, że "było i będzie nadal reagować na potrzebę użytkowników, aby zrozumieć zmiany". BLS podjęło wysiłki w celu ulepszenia swoich programów, aby uchwycić zmiany w miejscu pracy i sile roboczej. Bieżące badanie populacji, które dostarcza miesięcznych danych na temat cech demograficznych i edukacyjnych siły roboczej, obejmuje dodatkowe badania dotyczące kwestii związanych z miejscem pracy, takich jak zatrudnienie tymczasowe, przesunięcia pracowników i harmonogramy pracy. Nowe miesięczne badanie ofert pracy i rotacji pracowników w kraju i głównych sektorach przemysłu dostarczy informacji, które nie były dostępne wcześniej.
MOŻLIWOŚCI ZATRUDNIENIA
Pod koniec 1999 r. w Waszyngtonie, D.C. i biurach regionalnych w ośmiu miastach pracowało około dwudziestu sześciuset pracowników BLS: Boston, Nowy Jork, Filadelfia, Atlanta, Chicago, Dallas, Kansas City i San Francisco. BLS informuje, że istnieje ciągłe zapotrzebowanie na ekonomistów, statystyków matematycznych i specjalistów komputerowych. Istnieje mniejsze zapotrzebowanie na specjalistów administracyjnych i finansowych, a także na wiele typów techników i asystentów. Zatrudnienie jest prawnie ograniczone do obywateli USA. Większość stanowisk zawodowych wymaga tytułu licencjata lub równoważnego doświadczenia. Szczegółowe kwalifikacje i wymagania edukacyjne są opisane w broszurach BLS dostępnych w agencji, a także w Internecie
Business Professionals of America (BPA) to krajowa organizacja studentów zawodowych dla osób przygotowujących się do kariery w biznesie i/lub pracach biurowych. BPA, z dziewiętnastoma stowarzyszeniami stanowymi i 45 000 członków w szkołach średnich, średnich i policealnych w całej Ameryce Północnej, dąży do wniesienia wkładu w przygotowanie światowej klasy siły roboczej poprzez promowanie przywództwa, obywatelstwa oraz umiejętności akademickich i technologicznych. Wykorzystując koncentrację pozaprogramową, BPA integruje lokalne programy i usługi w programie nauczania w klasie biznesowej i koncentruje się na rzeczywistych strategiach nauczania i uczenia się. Ponadto BPA rozwija profesjonalizm u uczniów i nauczycieli poprzez unikalne programy i usługi (Business Professionals of America, 1993). Historycznie, potrzeba organizacji studenckiej obsługującej osoby w programach zawodowych biurowych została uznana wkrótce po uchwaleniu Ustawy o edukacji zawodowej z 1963 r. Statut Office Education Association, pierwotnej nazwy BPA, został oficjalnie złożony w 1966 r. Nazwa została zmieniona na Business Professionals of America 1 lipca 1988 r. (Business Professionals of America, 1996). Business Professionals of America oferuje swoim studentom, nauczycielom i absolwentom różnorodne programy i usługi. National Leadership Conference corocznie organizuje krajowe wybory oficerów i wydarzenia konkursowe, które pozwalają studentom wykazać się umiejętnościami w miejscu pracy uzyskanymi w ramach programu nauczania biznesu oraz Industry Certification and Behavioral Skills Assessment (′′Workplace Skills Assessment Program,′′1998). Programy nagród uznają również sukcesy członków i oddziałów. Różne materiały pisemne i oficjalny kwartalnik Communique zapewniają członkom usługi, aktualizacje i możliwości promocyjne. Ponadto na uniwersytetach poszukuje się programów stypendialnych, aby zachęcić do udziału w edukacji biznesowej na poziomie podyplomowym.
Wraz z rozwojem systemów przetwarzania danych biznesowych na bardzo dużą skalę w latach 60. i 70. nastąpił rozwój baz danych i systemów zarządzania bazami danych. Bazy danych to duże zbiory powiązanych ze sobą danych przechowywanych w komputerowych systemach dyskowych, z których można uzyskać do nich natychmiastowy dostęp i je przeglądać. Systemy zarządzania bazami danych to duże programy komputerowe, które "zarządzają" lub kontrolują bazy danych. Dane są zwykle definiowane jako "fakty", z których można wyprowadzić informacje. Na przykład "Janene Clouse mieszka przy Sycamore Avenue 1411" jest faktem. Baza danych może zawierać miliony takich faktów. Z tych faktów system zarządzania bazą danych może wyprowadzić informacje w formie odpowiedzi na pytania takie jak "Ile osób mieszka przy Sycamore Avenue?" Popularność baz danych w biznesie jest bezpośrednim wynikiem mocy systemów zarządzania bazami danych w wyprowadzaniu cennych informacji biznesowych z dużych zbiorów danych.
RELACYJNE BAZY DANYCH
Większość nowoczesnych baz danych jest relacyjna, co oznacza, że dane są przechowywane w tabelach, składających się z wierszy i kolumn, a dane w różnych tabelach są powiązane ze sobą poprzez znaczenie pewnych wspólnych kolumn. (Tabele w bazie danych są czasami nazywane "plikami", wiersze są nazywane "rekordami", a kolumny są nazywane "polami". Jest to jednak starsza terminologia, pozostałość po wczesnych dniach systemów komputerowych dla firm.) Poniżej znajduje się przykład prostej relacyjnej bazy danych składającej się z trzech tabel - jednej dla klientów, jednej dla produktów i jednej dla sprzedaży:

Załóżmy, że chcemy poznać nazwisko klienta na sprzedaż numer 845. Patrzymy w kolumnę numer klienta w tabeli Sprzedaż i widzimy, że był to klient 1003. Następnie odwołujemy się do tabeli Klienci i znajdujemy klienta 1003. Tutaj widzimy, że nazwisko klienta to Brown. Zatem Brown był klientem na sprzedaż numer 845.
STRUKTURALNY JĘZYK ZAPYTAŃ
Powyższe jest prostym przykładem zapytania do bazy danych. W nowoczesnej bazie danych zapytania są wyrażane w języku zapytań, który wymaga określonego formatu, który może być rozpoznany i zinterpretowany przez system zarządzania bazą danych (DBMS). Standardowym językiem zapytań dla baz danych relacyjnych, przyjętym przez American National Standards Institute (ANSI), jest SQL, który jest powszechnie rozumiany jako skrót od "Structured Query Language". Przyjrzyjmy się kilku przykładom zapytań wyrażonych w SQL.

Rozwiązanie SQL tego zapytania ilustruje format SQL. Ogólnie rzecz biorąc, instrukcje SQL mają klauzulę Select, klauzulę From i klauzulę Where. Klauzula Select zawiera listę kolumn, które mają być wyświetlane w wyniku, klauzula From zawiera listę tabel bazy danych, z których mają być pobierane dane, a klauzula Where podaje warunek, który ma być stosowany do każdego wiersza w tabeli. Jeśli wiersz spełnia warunek, zostaje wybrany, a wartości w tym wierszu dla kolumn wymienionych w klauzuli Select są uwzględniane w wyniku.

W tym przykładzie widać, że warunek w klauzuli Where obejmuje łącznik "i", który wskazuje, że oba warunki (product-no = 45 i customer-no = 1002) muszą być spełnione. W naszej przykładowej bazie danych są dwa wiersze, które spełniają ten warunek, a wynik zapytania zwraca daty z tych dwóch wierszy. Nasze następne zapytanie daje rozwiązanie SQL oryginalnego zapytania, które omówiliśmy powyżej.

To zapytanie ilustruje, jak można wykonać zapytanie do więcej niż jednej tabeli jednocześnie w SQL. Najpierw wypisujemy wszystkie tabele potrzebne do odpowiedzi na zapytanie. W tym przypadku wypisujemy tabele Customers i Sales.
Następnie w klauzuli Where podajemy dwa warunki:
sale-no 845 i
Sales.customer-no
Customers.customer-no
Pierwszy warunek wskazuje, że kolumna sale-no musi mieć wartość 845. Ponieważ w tabeli Sales jest tylko jeden wiersz o tej wartości, ograniczyliśmy nasze zapytanie do tego pojedynczego wiersza. Drugi warunek wskazuje, że chcemy tylko tego wiersza w tabeli Customers, który ma taką samą wartość dla swojej kolumny customer-no, jak wiersz Sales ma dla swojej kolumny customer-no. Ten warunek ogranicza następnie nasz wynik do połączenia jednego wiersza z tabeli Sales i jednego wiersza z tabeli Customers. Na koniec klauzula Select, Select name mówi nam, że powinniśmy podać wartość z kolumny name jako nasz wynik. Jak pokazaliśmy wcześniej, otrzymana nazwa klienta to "Brown". Zapytania można również wykorzystać do wykonania obliczeń:

SQL udostępnia również polecenia, których można użyć do wprowadzania zmian w danych w bazie danych. Na przykład, załóżmy, że chcemy zwiększyć cenę naszych produktów o 3 procent. Wtedy możemy użyć następującego polecenia:
Aktualizuj produkty
Ustaw cenę = 1,03 * cena
To polecenie spowoduje zwiększenie ceny każdego produktu w naszej tabeli Produkty o 3 procent. Należy zauważyć, że nie ma znaczenia, czy mamy 3 produkty, jak pokazano w naszej przykładowej bazie danych, czy 300 000 produktów. Pojedyncze polecenie zaktualizuje ceny wszystkich produktów. Oczywiście, jeśli chcemy zmienić ceny tylko wybranych produktów, możemy to również zrobić:
Aktualizuj produkty
Ustaw cenę = 1,03 * cena
Gdzie product-no = 33
To polecenie zmieni tylko cenę produktu o numerze 33. SQL udostępnia również polecenia Wstaw nowe wiersze do tabel i Usuń wiersze z tabel. Te zapytania pokazują tylko bardzo małą liczbę możliwości SQL. Klauzuli Where można użyć do wybierania wierszy na podstawie miejsca, w którym znajdują się nazwiska w alfabecie, tego, czy daty są przed czy po pewnych innych datach, na podstawie średnich i na podstawie wielu innych warunków.
MAŁE I DUŻE BAZY DANYCH
Bazy danych mogą być jedno- lub wielo-użytkownikowe. Baza danych jedno-użytkownika znajduje się na jednym komputerze i jest dostępna tylko z tego komputera. Istnieje wiele baz danych jedno-użytkownika i istnieje wiele komercyjnych systemów DBMS, które obsługują ten rynek. Baza danych wielo-użytkownika może znajdować się na jednym komputerze, takim jak komputer mainframe lub inny wydajny komputer, lub może być rozproszona i znajdować się na wielu komputerach. Bazy danych wielo-użytkownika są dostępne z wielu komputerów jednocześnie. Wraz z rozwojem Internetu wiele baz danych jest publicznie dostępnych. Na przykład, zasoby bibliotek uniwersyteckich są przechowywane w bazach danych, które można przeglądać ze zdalnych lokalizacji. Osoba zainteresowana znalezieniem książki w bibliotece może wprowadzić tytuł książki, autora lub temat, a zapytanie do bazy danych zostanie automatycznie wykonane. Informacje o żądanej książce lub liście książek zostaną zwrócone do komputera tej osoby.
WYBÓR SYSTEMU BAZY DANYCH
Osoba lub firma zamierzająca zakupić system zarządzania bazą danych do wykorzystania w zarządzaniu bazą danych powinna wziąć pod uwagę następujące czynniki:
Relacyjne: Praktycznie wszystkie główne komercyjne systemy zarządzania bazami danych są relacyjne, ponieważ pożądanie relacyjnych baz danych jest powszechnie akceptowane w społeczności baz danych.
SQL: Ponadto, ponieważ Amerykański Narodowy Instytut Normalizacyjny przyjął SQL jako swój standard dla relacyjnych baz danych, pożądany DBMS powinien obsługiwać SQL.
Pojemność: Jak wspomniano powyżej, systemy zarządzania bazami danych są projektowane dla różnych środowisk. Niektóre są projektowane jako systemy jedno-użytkownikowe, inne są projektowane dla średnich firm, a jeszcze inne są projektowane dla dużych firm. Wybrany system powinien być oczywiście takim, który okazał się skuteczny i odpowiedni dla środowiska, dla którego został wybrany.
Możliwość odzyskiwania po awarii: Bardziej zaawansowane systemy są bardziej zdolne do odzyskiwania po przerwach w dostawie prądu, awariach sprzętu komputerowego itp. niż systemy jedno-użytkownikowe. Wykorzystują zaawansowane funkcje rejestrowania i blokowania bazy danych, które umożliwiają takie odzyskiwanie. Często te funkcje są zbędne w przypadku systemów jedno-użytkownikowych.
STRESZCZENIE
Bazy danych i systemy zarządzania bazami danych są kluczowe dla nowoczesnych systemów informatycznych w przedsiębiorstwach. Relacyjne bazy danych wykorzystujące język SQL zapewniają znaczną moc logiczną, aby pomóc firmom podejmować świadome decyzje w oparciu o ich własne dane. Systemy baz danych mogą być małe i obsługiwane przez jednego użytkownika lub mogą być duże i dostępne dla wielu użytkowników. Są nawet publicznie dostępne za pośrednictwem Internetu. Systemy zarządzania bazami danych mogą być skomplikowane i drogie, a w związku z tym ich zakup wymaga ostrożnego, świadomego rozważenia.
Przyspieszające cykle produkcyjne, łatwy dostęp do informacji o produktach i usługach, wybredni konsumenci i zacięta konkurencja między firmami to rzeczywistość w świecie biznesu. Zbyt wiele firm goni za zbyt małą liczbą konsumentów. W swojej książce "Kotler on Marketing: How to Creat, Win, and Dominate Markets" Philip Kotler, specjalista ds. marketingu i profesor w Kellogg Graduate School of Management na Northwestern University, omawia, co musi zrobić firma, aby odnieść sukces. Napisał: "Nagrodę otrzymają te firmy, które wymyślą nowe sposoby tworzenia, komunikowania się i dostarczania wartości swoim rynkom docelowym" (cyt. za Mendenhall, 1999, s. 52). Znajomość, zrozumienie i reagowanie na potrzeby rynku docelowego jest ważniejsze niż kiedykolwiek. A to wymaga informacji - dobrych informacji. Dobre informacje mogą prowadzić do sukcesu produktów i usług. Dobre informacje są wynikiem badań rynku.
CZYM SĄ BADANIA MARKETINGOWE?
Według Stowarzyszenia Badań Marketingowych (Marketing Research Association, 2000), badania marketingowe definiuje się następująco: "Badania marketingowe to funkcja, która łączy konsumenta, klienta i opinię publiczną z marketerem za pośrednictwem informacji - informacji wykorzystywanych do identyfikowania i definiowania szans i problemów marketingowych; generowania, udoskonalania i oceny działań marketingowych; monitorowania skuteczności marketingu; oraz lepszego zrozumienia marketingu jako procesu. Badania marketingowe określają informacje niezbędne do rozwiązania tych problemów; projektują metodę gromadzenia informacji; zarządzają procesem gromadzenia danych i wdrażają go; analizują wyniki; oraz komunikują wnioski, zalecenia i ich implikacje".Branża badań marketingowych to branża warta 1,3 miliarda dolarów rocznie. Branża ta rośnie w tempie ponad 10 procent rocznie, a zyski utrzymują się na podobnym poziomie . Badania marketingowe dostarczają, analizują i interpretują informacje dla producentów na temat tego, jak konsumenci postrzegają ich produkty i usługi oraz jak mogą lepiej zaspokajać ich potrzeby. Ostatecznym celem jest zadowolenie konsumenta, aby zdobyć lub utrzymać jego interesy.
HISTORIA BADAŃ MARKETINGOWYCH
Pionierzy. Badania marketingowe jako zorganizowana działalność biznesowa rozpoczęły się w latach 1910-1920. Za początek badań marketingowych uznaje się mianowanie Charlesa Collidge′a Parlina na stanowisko kierownika Działu Badań Handlowych w Departamencie Reklamy wydawnictwa Curtis Publishing Company w 1911 roku. Sukces Parlina skłonił wiele firm przemysłowych i mediów reklamowych do utworzenia działów badawczych. W 1915 roku United States Rubber Company zatrudniła dr. Paula H. Nystroma do kierowania nowo utworzonym Działem Badań Handlowych. W 1917 roku firma Swift and Company zatrudniła dr. Louisa D. H. Welda z Uniwersytetu Yale na stanowisko kierownika Działu Badań Handlowych. W 1919 roku profesor C.S. Duncan z Uniwersytetu Chicagowskiego opublikował książkę "Badania Handlowe: Zarys zasad działania", uważaną za pierwszą ważną książkę na temat badań komercyjnych. W 1921 roku opublikowano "Analizę rynku" Percivala White′a; Pierwsza książka badawcza, która zyskała szerokie grono czytelników, doczekała się kilku wydań. "Market Research and Analysis" Lyndona O. Browna, opublikowana w 1937 roku, stała się jednym z najpopularniejszych podręczników akademickich tamtego okresu, odzwierciedlając rosnące zainteresowanie badaniami marketingowymi na kampusach uniwersyteckich. Po 1940 roku opublikowano liczne podręczniki badawcze, a liczba szkół biznesu oferujących kursy badawcze gwałtownie wzrosła. Po II wojnie światowej rozwój badań marketingowych gwałtownie wzrósł. Do 1948 roku w Stanach Zjednoczonych powstało ponad dwieście organizacji zajmujących się badaniami marketingowymi. Szacuje się, że w 1947 roku na badania marketingowe wydano 50 milionów dolarów. W ciągu następnych trzech dekad poziom wydatków wzrósł ponad dziesięciokrotnie.
RODZAJE BADAŃ MARKETINGOWYCH
Badania marketingowe można podzielić na badania eksploracyjne, badania konkluzywne i badania monitorujące wyniki. Etap procesu decyzyjnego, dla którego potrzebne są informacje, określa rodzaj wymaganych badań. Badania eksploracyjne są odpowiednie na wczesnych etapach procesu decyzyjnego. Badania te mają zazwyczaj na celu wstępne zbadanie sytuacji przy minimalnym nakładzie kosztów i czasu. Stosuje się różne podejścia do tych badań, w tym wykorzystanie wtórnych źródeł danych, obserwację, wywiady z ekspertami i analizy przypadków. Badania konkluzywne dostarczają informacji, które pomagają menedżerowi ocenić i wybrać sposób działania. Wiąże się to z jasno określonymi celami badań i potrzebami informacyjnymi. Niektóre podejścia do tych badań obejmują ankiety, eksperymenty, obserwacje i symulacje. Badania konkluzywne można podzielić na badania opisowe i badania przyczynowe. Badania opisowe, jak sama nazwa wskazuje, mają na celu opisanie czegoś - na przykład cech konsumentów danego produktu; Stopień, w jakim korzystanie z produktu różni się w zależności od wieku, dochodów lub płci; lub liczba osób, które obejrzały konkretną reklamę telewizyjną. Większość badań marketingowych jest tego typu (Boyd i Westface, 1992). Badania przyczynowe mają na celu zebranie dowodów dotyczących związków przyczynowo-skutkowych istniejących w systemie marketingowym. Na przykład, jeśli firma obniży cenę produktu, a następnie sprzedaż jednostkowa produktu wzrośnie, badania przyczynowe pokażą, czy ten efekt był spowodowany obniżką ceny, czy jakimś innym powodem. Badania przyczynowe muszą być zaprojektowane w taki sposób, aby dowody dotyczące związku przyczynowego były jasne. Głównymi źródłami danych do badań przyczynowych są ankiety ankietowe i eksperymenty. Badania monitorujące wydajność dostarczają informacji na temat stanu systemu marketingowego; sygnalizują obecność potencjalnych problemów lub możliwości. Jest to niezbędny element kontroli programów marketingowych firmy. Źródła danych do badań monitorujących wydajność obejmują ankiety ankietowe, dane wtórne i obserwację.
PROCES BADAŃ MARKETINGOWYCH
Proces badań marketingowych składa się z szeregu etapów, zwanych procesem badawczym. Aby skutecznie przeprowadzić projekt badawczy, ważne jest przewidzenie wszystkich etapów i rozpoznanie ich współzależności.
Potrzeba informacji. Pierwszym krokiem w procesie badawczym jest ustalenie potrzeby informacji z badań marketingowych: Badacz musi dokładnie zrozumieć, dlaczego informacje są potrzebne. Kierownik jest odpowiedzialny za wyjaśnienie sytuacji związanej z żądaniem informacji i ustalenie, że informacje z badań pomogą w procesie decyzyjnym. Ustalenie potrzeby informacji z badań jest krytycznym i trudnym etapem procesu badawczego. Zbyt często pomija się znaczenie tego początkowego kroku, co prowadzi do wyników badań, które nie są zorientowane na podejmowanie decyzji.
Cele badań. Po jasnym zdefiniowaniu potrzeby informacji z badań, badacz musi określić cele proponowanych badań i opracować szczegółową listę potrzeb informacyjnych. Cele badawcze odpowiadają na pytanie "Dlaczego ten projekt jest realizowany?". Odpowiedź może być tak ogólna, jak określenie nakładu pracy potrzebnego do zwiększenia udziału firmy w rynku o 5%, lub tak szczegółowa, jak określenie najchętniej wybieranego przez kobiety z południowej Kalifornii kremu nawilżającego. Dopiero gdy badacz zna problem, który kierownictwo chce rozwiązać, projekt badawczy może zostać zaprojektowany tak, aby dostarczyć istotnych informacji. Trudność w ustalaniu celów badawczych polega na często występującym konflikcie między wartością informacji a budżetem badań. Ponieważ każda informacja wiąże się z pewnym kosztem, czy to kosztem podróży account managera, czy kosztem przeprowadzenia ankiety telefonicznej przez zewnętrzną agencję, każda informacja musi zostać oceniona pod kątem jej wartości w kontekście podejmowanych decyzji.
Projekt badawczy i źródła danych. Kolejnym krokiem w procesie badawczym jest zaprojektowanie formalnego projektu badawczego i określenie odpowiednich źródeł danych do badania. Projekt badawczy to struktura, która określa rodzaj gromadzonych informacji, źródła danych oraz procedury gromadzenia danych. Chociaż istnieje wiele różnych sposobów klasyfikacji projektów, ta, która daje jasny przegląd różnych procedur, opiera się na trzech metodach generowania danych pierwotnych: eksperymentowaniu, obserwacji i ankiecie. Eksperymentowanie polega na stworzeniu kontrolowanego eksperymentu lub modelu symulującego rzeczywistą sytuację marketingową będącą przedmiotem badania. W metodzie obserwacji dane pierwotne pochodzą z obserwacji respondentów wykonujących określone czynności. Metoda ankietowa polega na zbieraniu danych pierwotnych poprzez zadawanie pytań określonej liczbie osób. Są to najczęściej stosowane metody pozyskiwania danych pierwotnych (Hisrich, 1990). Aby określić źródła danych dla projektu badawczego, należy najpierw ocenić ilość i rodzaj aktualnie dostępnych danych. Dane te nazywane są danymi wtórnymi - danymi już zebranymi i dostępnymi, które zostały wcześniej zgromadzone w innym celu. Chociaż dane te są gromadzone szybko i często przy niskich kosztach, czasami nie spełniają one celów badawczych. Istnieją dwa rodzaje danych wtórnych: wewnętrzne (dane pochodzące z firmy) i zewnętrzne (dane publikowane, pochodzące spoza firmy). Wewnętrzne dane wtórne to wszystkie dane pochodzące z firmy, które zostały zebrane w innym celu niż cel, którego aktualnie dotyczy badanie. Dwa najważniejsze rodzaje danych wewnętrznych to dane sprzedażowe i kosztowe. Po przeanalizowaniu wewnętrznych danych wtórnych, dodatkowe informacje można uzyskać z opublikowanych zewnętrznych danych wtórnych. Głównymi źródłami danych zewnętrznych są (1) Internet, (2) rząd, (3) stowarzyszenia handlowe, biznesowe i zawodowe, (4) media, (5) czasopisma branżowe, (6) uniwersytety i fundacje, (7) sprawozdania roczne przedsiębiorstw oraz (8) komercyjne serwisy danych. Informacje uzyskane z każdego z tych źródeł należy dokładnie przeanalizować, aby upewnić się, że odpowiadają one konkretnym potrzebom badacza.
1. Internet może szybko i łatwo udostępniać linki do wielu źródeł informacji. Przeszukiwanie sieci lub odwiedzanie witryny biblioteki biznesowej to sposoby na zapoznanie się z rodzajami dostępnych zasobów.
2. Rząd federalny jest zdecydowanie największym źródłem danych marketingowych. Chociaż dane są dostępne po bardzo niskiej cenie, jeśli w ogóle, ich pozyskanie często wiąże się z kosztami i czasem. Niektóre publikacje rządowe są wysoce wyspecjalizowane i odnoszą się do konkretnych badań produktów. Inne dane mają charakter bardziej ogólny. Informacje udostępniają również władze stanowe i lokalne. Dane takie jak akty urodzenia i zgonu oraz informacje o sprzedaży nieruchomości i ich wycenach są informacjami publicznymi i można je uzyskać od odpowiednich organów stanowych lub lokalnych.
3. Stowarzyszenia branżowe, biznesowe i zawodowe również dysponują ogólnymi danymi na temat różnych działań i sprzedaży w swoich okręgach wyborczych. Na przykład, Krajowe Stowarzyszenie Kuchni i Łazienek (National Kitchen & Bath Association) dysponuje ogólnymi informacjami na temat specjalistów od projektowania kuchni i łazienek, strategii badawczych w zakresie projektowania oraz modernizacji. Chociaż dane te nie będą dotyczyć konkretnych firm, są przydatne w uzyskaniu ogólnego spojrzenia na branżę. Informacje o adresach i członkostwie wszystkich stowarzyszeń można znaleźć w Encyklopedii Stowarzyszeń, aktualizowanej corocznie.
4. Większość czasopism, gazet oraz stacji radiowych i telewizyjnych udostępnia dane marketingowe dotyczące swoich odbiorców. Ponadto media przeprowadzają okresowe badania rynku dotyczące wzorców zakupowych i danych demograficznych w swoim regionie. Na przykład, "Boston Globe" przeprowadza badanie demograficzne swoich czytelników, aby umożliwić reklamodawcom lepsze zrozumienie potencjału marketingowego ich regionu.
5. Czasopisma branżowe również dostarczają szerokiej gamy danych marketingowych i sprzedażowych na obszarach, którymi się zajmują. Na przykład, jeśli potrzebne są badania rynku w dziedzinie komputerów, należy sprawdzić czasopisma branżowe, takie jak Computer World, InformationWeek i PCMagazine, pod kątem istotnych informacji.
6. Uniwersytety i fundacje realizują różnorodne projekty badawcze. Oprócz specjalistycznych badań finansowanych z grantów rządowych, uniwersytety publikują ogólne wyniki badań, interesujące dla środowiska biznesowego, za pośrednictwem swoich biur badawczych i instytutów.
7. Roczne raporty firm i sprawozdania 10-K są również użytecznym źródłem informacji o konkretnych firmach lub ogólnych trendach branżowych. Raporty te mogą nie zawierać zbyt wielu szczegółów, jednak pozwalają na uzyskanie ogólnego obrazu charakteru i zakresu działalności firm w danej branży, a także ich ogólnego kierunku.
8. Wiele firm oferuje badania marketingowe i usługi w zakresie danych komercyjnych. Niektóre oferują badania na zamówienie, projektując projekt badawczy specjalnie pod potrzeby klienta. Może to być kosztowne. Inne, takie jak Nielsen Media Research, oferują ustandaryzowane informacje, regularnie kompilowane i udostępniane klientom w ramach subskrypcji.
Po sprawdzeniu wszystkich źródeł danych wtórnych i braku znalezienia potrzebnych danych, rozpoczyna się trzeci aspekt planowanych badań - gromadzenie danych poprzez badania pierwotne. Badania pierwotne można najlepiej rozpatrywać w kontekście trzech obszarów: gromadzenia danych, projektowania próby oraz przetwarzania i analizy danych.
Gromadzenie danych. Jeśli ustalono, że wymagane dane nie są obecnie dostępne, kolejnym krokiem jest zebranie nowych danych. Aby opracować procedurę gromadzenia danych, badacz musi skutecznie powiązać potrzeby informacyjne z pytaniami, które mają zostać zadane, lub obserwacjami, które mają zostać zarejestrowane. Proces gromadzenia danych jest kluczowy, ponieważ zazwyczaj pochłania znaczną część budżetu badawczego. Najczęściej stosowanymi metodami gromadzenia danych są grupy fokusowe, ankiety lub wywiady. Grupy fokusowe są często wykorzystywane do gromadzenia danych pierwotnych. Grupa fokusowa składa się z dyskusji, trwającej zazwyczaj od półtorej do dwóch godzin, z udziałem ośmiu do dwunastu osób i moderatora, którego celem jest zachęcenie do pogłębionej dyskusji na dany temat lub produkt. Dyskusja pozwala na elastyczność i dostarcza szerokiej, dogłębnej wiedzy, której nie można uzyskać żadną inną metodą badawczą. Ankiety, znane również jako kwestionariusze, są najpopularniejszym narzędziem gromadzenia danych. Ankieta składa się z zestawu pytań zadawanych respondentom w celu uzyskania odpowiedzi. Ankiety muszą zostać starannie opracowane, przetestowane i debugowane przed ich użyciem; Można je przeprowadzać telefonicznie, pocztą, e-mailem lub przez Internet. Ankiety internetowe stają się coraz bardziej powszechne i popularne ze względu na niższy koszt, wygodę i większą uczciwość odpowiedzi (Rasmusson, 1999). Ankiety internetowe nie zastępują tradycyjnych technik, ale mogą być skutecznym wyborem dla dużych i małych firm. Podstawowe dane badawcze często uzyskuje się poprzez wywiady, osobiste lub telefoniczne. Na przykład, można osobiście przeprowadzić wywiad z konsumentami, aby poznać ich opinię na temat nowej linii żywności niskotłuszczowej lub osobiście przeprowadzić wywiad z kilkoma menedżerami, aby poznać ich opinię na temat znanej agencji reklamowej. Zaletą wywiadów osobistych jest to, że osoba przeprowadzająca wywiad może dostosować pytanie do konkretnej sytuacji. Ograniczeniem tej metody jest to, że osoba przeprowadzająca wywiad może wprowadzić do procesu stronniczość, zadając pytania sugerujące lub dając pewne wskazówki co do preferowanej odpowiedzi. Skuteczne wdrożenie wywiadów osobistych wymaga dużo czasu, nadzoru i szkolenia osób przeprowadzających wywiady.
Projektowanie próby. Podczas prowadzenia badań ważne jest określenie odpowiedniej populacji docelowej badania - grupy osób o cechach istotnych dla problemu badawczego, od których zostaną pozyskane informacje. Choć może się to wydawać łatwe, często jest to jedno z najtrudniejszych zadań w projekcie badań marketingowych ze względu na różnorodność czynników wpływających na jego ustalenie. Na przykład, istotne może być, aby ankietowani byli tylko niedawni użytkownicy produktu. Możliwe też, że badanie powinno koncentrować się na nabywcach produktu, a nie na użytkownikach. Po określeniu populacji docelowej należy podjąć decyzję o tym, jak najlepiej ją reprezentować w ramach ograniczeń czasowych i kosztowych budżetu badawczego. Ponieważ istnieje wiele różnych metod doboru próby - grupy jednostek złożonych z nienakładających się na siebie elementów, które są reprezentatywne dla populacji, z której została wylosowana - należy wybrać najlepszą metodę dla konkretnego projektu badawczego.
Przetwarzanie i analiza danych. Po zebraniu danych rozpoczyna się przetwarzanie, które obejmuje funkcje edycji i kodowania. Edycja obejmuje przegląd formularzy danych w celu zapewnienia czytelności, spójności i kompletności. Kodowanie obejmuje ustalenie kategorii dla odpowiedzi lub grup odpowiedzi, tak aby można było użyć cyfr do reprezentowania tych kategorii .
Ważne jest, aby analiza danych była zgodna z wymaganiami dotyczącymi potrzeb informacyjnych zidentyfikowanymi podczas definiowania celów badawczych. Analiza danych jest zazwyczaj przeprowadzana za pomocą odpowiedniego oprogramowania. Analiza danych, niezależnie od tego, czy jest przeprowadzana za pomocą prostych obliczeń numerycznych, czy też za pomocą złożonych technik analitycznych wspomaganych komputerowo, powinna dostarczać istotnych informacji, przydatnych w podejmowaniu decyzji zarządczych.
Prezentacja wyników. Po zebraniu i przeanalizowaniu danych można przejść do ostatniego etapu projektu badawczego - sformułowania odpowiednich wniosków i rekomendacji. Jest to najważniejsza część projektu, ale nie zawsze poświęca się jej należytą uwagę. Wyniki badań są zazwyczaj przekazywane menedżerowi w formie raportu pisemnego i prezentacji ustnej. Wyniki badań powinny być przedstawione w przejrzystej, prostej formie i uzupełnione odpowiednimi materiałami pomocniczymi. Najlepsza na świecie metodologia badawcza będzie bezużyteczna dla menedżerów, jeśli nie będą oni w stanie zrozumieć raportu z badań. Oto kilka wskazówek dotyczących przygotowania raportów pisemnych i ustnych:
• Weź pod uwagę odbiorców
• Bądź zwięzły, a zarazem kompletny
• Bądź obiektywny, a zarazem skuteczny
Wyniki powinny odpowiadać potrzebom informacyjnym w danej sytuacji decyzyjnej. Ostatecznym miernikiem wartości projektu badawczego jest to, czy wyniki zostaną pomyślnie wdrożone w firmie.
WARTOŚĆ BADAŃ MARKETINGOWYCH
Badania marketingowe w pewnym sensie zapoczątkowały przejście do szerszego spojrzenia na marketing. Pełnią one rolę czynnika koordynującego marketing z innymi funkcjami przedsiębiorstwa, takimi jak inżynieria, produkcja, księgowość i finanse. Ta integracja zwiększa znaczenie badań marketingowych dla korporacji jako całości. Badania marketingowe będą nadal odgrywać kluczową rolę w organizacjach w XXI wieku. Technologia umożliwi badaniom marketingowym przejęcie inicjatywy w dostarczaniu użytecznych informacji do podejmowania skutecznych decyzji biznesowych. Rola Internetu w badaniach marketingowych będzie nadal rosła, ponieważ zapewnia on szybki i opłacalny sposób gromadzenia i rozpowszechniania danych. Badacze rynku będą kontynuować swoją ewolucję od dostarczania "badań rynku i opinii" do bardziej strategicznej pozycji dostarczania informacji, doradztwa i wymiany informacji z konsumentami (Chadwick, 1998). Firmy, które wykorzystają badania marketingowe i uznają je za cenny element biznesu, przetrwają i będą się rozwijać.
Od koszenia trawy, przez świadczenie opieki zdrowotnej, po dostarczanie paczek, branże usługowe w Stanach Zjednoczonych odgrywają integralną rolę w codziennej działalności milionów ludzi i firm. Usługi te mogą oferować wyższy standard życia, dostęp do wiedzy fachowej i technicznej lub inne niezbędne usługi. Dostawcy takich usług reprezentują wszystkie sektory gospodarki, w tym nastawione na zysk przedsiębiorstwa prywatne, organizacje non-profit i różne szczeble administracji publicznej.
CZYM SĄ BRANŻE USŁUGOWE?
Biuro Analiz Ekonomicznych (BEA) Departamentu Handlu Stanów Zjednoczonych mierzy całkowitą produkcję krajową w kategoriach Produktu Narodowego Brutto (PNB). W pomiarze produkcji BEA identyfikuje również branżowe źródła PKB. BEA ogólnie definiuje branże usługowe jako te, które dostarczają produkty, których nie da się magazynować i które są konsumowane w miejscu i czasie zakupu. Zazwyczaj usługi te obejmują jedynie wykonywanie czynności w imieniu klienta i mają niewielką, jeśli w ogóle, namacalną treść. Na przykład teatr wystawiający sztukę teatralną lub musical sprzedaje klientom bilety, umożliwiając im obejrzenie spektaklu. Po zakończeniu przedstawienia klienci wychodzą z teatru z niczym więcej niż wspomnieniami aktorów odgrywających swoje role. W niektórych przypadkach świadczone usługi mogą jednak obejmować otrzymanie przez klienta namacalnego produktu. W takim przypadku BEA wymaga, aby produkty te w minimalnym stopniu przyczyniały się do całkowitego kosztu usługi. Przykładem jest stacja obsługi samochodów wykonująca rutynową wymianę oleju w samochodzie. W ramach tej usługi klient otrzymuje nowy olej i filtr oleju. Podczas gdy niektóre firmy usługowe, takie jak firmy sprzątające i zajmujące się kształtowaniem krajobrazu, oferują swoim klientom wygodę, inne oferują profesjonalną i techniczną wiedzę. Tak jest w przypadku księgowych, którzy co roku wypełniają miliony federalnych i stanowych formularzy podatkowych w imieniu swoich klientów. Ich klienci nie płacą za formularze podatkowe, które są dostępne bezpłatnie u organów podatkowych, ale za ich prawidłowe wypełnienie. Księgowy wykorzystuje informacje dostarczone przez klienta do wypełnienia formularzy i ustalenia podatków klienta, wykorzystując wiedzę na temat stale zmieniających się przepisów podatkowych.
ZNACZENIE GOSPODARCZE
Branże usługowe odgrywały i nadal odgrywają ważną rolę w gospodarce USA. Pod względem produktywności, udział branż usługowych w PKB USA stale rośnie. Jak pokazano w tabeli 1, w 1960 roku branże usługowe stanowiły 39% PKB USA. Do 1980 roku odsetek ten wzrósł do ponad 45%. W 1997 roku ponad 55% z 8,1 biliona dolarów amerykańskiego PKB przypisano produktywności w sektorze usług. O ile kluczowa rola sektora usług dla gospodarki USA jest widoczna w jego udziale w PKB, o tyle jego znaczenie potęguje jego wkład w całkowite zatrudnienie na amerykańskim rynku pracy. Jak ilustruje tabela 2, według danych opublikowanych w 1997 roku przez Biuro Statystyki Pracy (BLS) Departamentu Pracy Stanów Zjednoczonych, w 1986 roku sektor usług odpowiadał za dwie trzecie całkowitego zatrudnienia w Stanach Zjednoczonych. Do 1996 roku odsetek sektora usług w całkowitym zatrudnieniu w Stanach Zjednoczonych wzrósł do ponad 70%. W 1997 roku BLS prognozowało, że branże usługowe będą odpowiedzialne za praktycznie cały wzrost zatrudnienia w latach 1996-2006 i do 2006 roku będą stanowić prawie 75% całkowitego zatrudnienia w Stanach Zjednoczonych. Jak pokazano w tabeli 3, BLS prognozowało, że w latach 1996-2006 dziesięć branż w Stanach Zjednoczonych o największym procentowym wzroście zatrudnienia będzie branżami usługowymi.
DOSTAWCY USŁUG
Usługi dostępne w Stanach Zjednoczonych są świadczone przez wszystkie trzy sektory gospodarki: przedsiębiorstwa nastawione na zysk, organizacje non-profit oraz rząd. Przedsiębiorstwa nastawione na zysk zapewniają największą część wszystkich usług i tworzą największą liczbę miejsc pracy. Rząd zapewnia drugą co do wielkości część usług i miejsc pracy, a następnie organizacje non-profit.
Rentowność usługi oraz kwestia, czy przynosi ona korzyści niepłacącym stronom trzecim, czy społeczności, to czynniki decydujące o tym, który z trzech sektorów gospodarki świadczy daną usługę. Z samej swojej natury, przedsiębiorstwa nastawione na zysk oferują usługi, które można produkować z zyskiem, unikając usług, które przynoszą korzyści niepłacącym stronom trzecim. Rodzaje usług świadczonych przez przedsiębiorstwa nastawione na zysk są liczne i obejmują szeroki wachlarz kategorii usług.
Przykładami są usługi mieszkaniowe, rozrywkowe i rekreacyjne, finansowe oraz doradztwo zawodowe. Rząd świadczy usługi, które oferują znaczne korzyści zarówno podatnikom, jak i osobom niepłacącym podatków, takie jak obrona narodowa i edukacja publiczna. Innym przykładem są rządowe agencje regulacyjne, takie jak Agencja ds. Żywności i Leków (FDA), która zapewnia jakość produktów przeznaczonych dla społeczeństwa. Społeczeństwo wybrało rząd do świadczenia tak istotnych usług, zamiast ryzykować niewystarczające świadczenie ich przez firmy lub inne organizacje. W innych obszarach usług, firmy nastawione na zysk nie zawsze same się regulują. Organizacje non-profit świadczą usługi poprawiające ogólny dobrobyt społeczeństwa, których firmy nie są w stanie w sposób rentowny wytworzyć lub których rząd nie jest w stanie w wystarczającym stopniu zapewnić. Przykładami są organizacje non-profit oferujące programy edukacyjne i rekreacyjne dla młodzieży z centrów miast oraz szpitale non-profit świadczące usługi medyczne wszystkim osobom, niezależnie od ich zdolności płatniczej.
KATEGORIE BRANŻY USŁUGOWEJ
Branże usługowe w Stanach Zjednoczonych różnią się znacznie w zależności od charakteru świadczonych usług i obsługiwanych klientów. Ogólnie rzecz biorąc, klasyfikacje branż usługowych obejmują biznes i biuro, opiekę zdrowotną, opiekę domową, rozrywkę i rekreację, usługi finansowe, motoryzacyjne i edukacyjne. W szerokiej klasyfikacji branży usług biznesowych i biurowych znajdują się te, które oferują usługi mające na celu zwiększenie produktywności i rentowności klientów biznesowych. Na przykład firmy oferujące usługi komputerowe i przetwarzania danych oferują produkty, które usprawniają przetwarzanie dokumentów przez klientów. Usługi zarządzania doradzają klientom w zakresie najlepszych praktyk zarządzania. Usługi zatrudnienia i kadrowe pomagają klientom w znalezieniu wykwalifikowanych kandydatów do pracy i zapewniają elastyczność bez konieczności zmiany siły roboczej. Jak pokazano w tabeli 3, przewiduje się, że kilka branż usług biznesowych i biurowych będzie jednymi z najszybciej rozwijających się po roku 2000. Wraz ze wzrostem średniej długości życia Amerykanów rośnie również zapotrzebowanie na specjalistów z zakresu opieki zdrowotnej, takich jak lekarze i pielęgniarki, a także na usługi związane ze zdrowiem, takie jak domy opieki czy domowa opieka zdrowotna. W latach 90. XX wieku branża usług opieki zdrowotnej odnotowała znaczny wzrost i, jak wskazuje Tabela 3, przewiduje się, że będzie się on nadal rozwijał do roku 2006. Branża opieki domowej to kolejny obszar, który odnotował znaczny wzrost i, jak ilustruje Tabela 3, oczekuje się, że będzie się on nadal rozwijał po roku 2000. Rozwój branży opieki domowej jest częściowo spowodowany rosnącą liczbą rodzin utrzymujących się z dwóch źródeł dochodu i mających ograniczony czas wolny. W rezultacie korzystają one z usług opieki domowej, aby wykonywać takie zadania, jak pielęgnacja trawnika i sprzątanie domu.
MOLESTOWANIE SEKSUALNE
Molestowanie seksualne to forma dyskryminacji ze względu na płeć, która narusza postanowienia VII tytułu Ustawy o prawach obywatelskich z 1964 r. z późniejszymi zmianami. Komisja ds. Równych Szans Zatrudnienia definiuje je jako niechciane zaloty seksualne, prośby o przysługi seksualne oraz inne werbalne lub fizyczne zachowania o charakterze seksualnym, gdy uległość lub odrzucenie takiego zachowania
(1) w sposób wyraźny lub dorozumiany wpływa na zatrudnienie danej osoby, (
2) w sposób bezzasadny zakłóca jej pracę lub
(3) stwarza zastraszające, wrogie lub obraźliwe środowisko pracy.
Prawo amerykańskie uznaje dwa rodzaje molestowania seksualnego. Pierwszy z nich określany jest mianem quid pro quo, co po łacinie oznacza "to za tamto", i oznacza wymianę obejmującą seks (np. przełożony oferujący podwładnemu awans w zamian za przysługi seksualne lub odmawiający świadczenia pracowniczego z powodu odmowy zalotów przełożonego). Drugim rodzajem molestowania jest "wrogie środowisko", które jest mniej oczywiste i trudniejsze do zdefiniowania. Ma ono miejsce, gdy pracownik znajduje się w niekomfortowym lub zagrażającym środowisku z powodu niepożądanego zachowania seksualnego w miejscu pracy. Przykładami sytuacji wrogiego środowiska są: opowiadanie dowcipów lub historii o charakterze seksualnym; niepożądane dotykanie, takie jak klepanie lub przytulanie; pokazywanie sugestywnych lub seksualnych zdjęć, plakatów lub kalendarzy; lub wykonywanie sugestywnych mimik lub gestów.
HISTORIA
Molestowanie seksualne jako praktyka z pewnością nie jest niczym nowym; w historii można znaleźć relacje kobiet i mężczyzn narażających swoje źródła utrzymania, jeśli nie poddali się jakiejś formie aktywności seksualnej - od żartobliwej po przestępczą - Jednak samo określenie jest stosunkowo nowe w kulturze amerykańskiej, pojawiło się w języku dopiero w 1975 roku. Podstawy prawne dla sprzeciwu wobec molestowania seksualnego zostały ustanowione w 1964 roku w Tytule VII Ustawy o Prawach Obywatelskich, która zakazała dyskryminacji w zatrudnieniu ze względu na płeć, rasę, kolor skóry, religię lub pochodzenie narodowe. Mimo że dyskryminacja ze względu na płeć była nielegalna, nie istniały żadne konkretne wytyczne dotyczące molestowania seksualnego. Nie zostało ono wyraźnie wymienione w Ustawie o Prawach Obywatelskich ani nie znalazło się w ustawach o uczciwych praktykach zatrudnienia uchwalonych w większości stanów. Kiedy sądy orzekały w tej sprawie, zazwyczaj traktowały ją jako rodzaj osobistego sporu między pracownikiem a osobą dopuszczającą się molestowania, nieobjętego prawem. Głównie w wyniku podniesienia i nagłośnienia tej kwestii przez organizacje kobiece na początku lat 70. XX wieku, Biuro Zarządzania Personelem (Office of Personnel Management) wydało w 1980 roku wytyczne definiujące molestowanie seksualne i ostrzegające, że takie zachowanie jest niedopuszczalne w federalnym miejscu pracy. Mimo to nowe wytyczne nie miały żadnych prawnych możliwości egzekwowania. Działania Komisji ds. Równych Szans Zatrudnienia (Equal Employment Opportunity Commission) z 1980 roku miały na celu zaradzenie temu problemowi, uznając molestowanie seksualne w miejscu pracy za nielegalne. Do tego czasu molestowanie seksualne było przedmiotem kilku spraw sądowych, ale nie przyciągnęło uwagi opinii publicznej.
KLUCZOWE WYDARZENIA
Sąd Najwyższy rozstrzygnął swoją pierwszą sprawę dotyczącą molestowania seksualnego w 1986 roku w sprawie Meritor Savings Bank przeciwko Vinson, wydając jednomyślny, przełomowy wyrok, który zawierał trzy ważne elementy: potwierdził, że Tytuł VII zakazuje molestowania seksualnego; zdefiniował molestowanie w zamian za coś; oraz dodał pojęcie wrogiego nadużycia w środowisku. Wyrok ten ostrzegł również, że pracodawcy mają obowiązek chronić się przed molestowaniem. Wyrok Vinson był znaczący, ponieważ po raz pierwszy Sąd uznał podstawę powództwa o molestowanie seksualne opartego na stworzeniu "wrogiego środowiska pracy", w przeciwieństwie do wcześniejszych spraw w zamian za coś, w których przedmiotem sporu było żądanie przysług seksualnych. Vinson spowodował, że pracodawcy w całym kraju ponownie przyjrzeli się polityce i praktykom kadrowym w odniesieniu do molestowania seksualnego w nowej definicji. Wielu uważało, że wyrok Vinson nie posunął się wystarczająco daleko w kwestii odpowiedzialności pracodawcy, podczas gdy inni uważali, że kryminalizuje to, co uznawali za nieszkodliwy humor i przyjacielski flirt. W miarę jak ta debata trwała, głównie w miejscach pracy i salach sądowych w całym kraju, doszło do dwóch wydarzeń: jednego z udziałem armii USA, a drugiego do zatwierdzenia sędziego Sądu Najwyższego. Wydarzenia te sprawiły, że temat molestowania seksualnego znalazł się w centrum uwagi w całym kraju. W 1991 roku skandal Tailhook w Marynarce Wojennej przykuł uwagę całego kraju doniesieniami o tym, że oficerki marynarki zostały zaatakowane w korytarzu, w "szparach", przez swoich kolegów oficerów podczas dorocznej konwencji lotników marynarki wojennej w Las Vegas. Porucznik Paula Coughlin oficjalnie poskarżyła się swoim przełożonym na zachowanie swoich kolegów oficerów, ale jej skargi początkowo zostały zignorowane. Następnie upubliczniła swoją historię, co skłoniło inne oficerki marynarki do zrobienia tego samego. Skandal Tailhook doprowadził do szeregu działań administracyjnych przeciwko oficerom marynarki, wcześniejszych emerytur niektórych najwyższych urzędników Marynarki Wojennej oraz wymuszonej rezygnacji Sekretarza Marynarki Wojennej. Być może najważniejszym wydarzeniem, które uczyniło molestowanie seksualne tematem ogólnokrajowej debaty, było ujawnienie w 1992 roku, że nominowany do Sądu Najwyższego Clarence Thomas rzekomo molestował seksualnie swoją byłą pracownicę w Komisji ds. Równych Szans Zatrudnienia (EEOC). Anita Hill, profesor na Wydziale Prawa Uniwersytetu Oklahomy w czasie nominacji Thomasa, została skontaktowana przez pracowników Senatu w sprawie plotek dotyczących takich zarzutów. Hill wskazała, że Thomas wielokrotnie omawiał z nią kwestie seksualne w sugestywny i upokarzający sposób, gdy był jej przełożonym w EEOC. Kiedy większość Senatu USA wydawała się gotowa zatwierdzić nominację Thomasa bez ujawniania zarzutów, Amerykanki zaprotestowały i skutecznie wstrzymały postępowanie do czasu rozpatrzenia oskarżeń. Późniejsze zeznania złożone na przesłuchaniach w Senacie zarówno przez Hill, jak i Thomas wywołały burzę kontrowersji w całym kraju. Wiele pracujących kobiet zaczęło mówić o własnych doświadczeniach, a w ciągu kilku dni od rozpraw liczba skarg dotyczących molestowania seksualnego składanych do agencji rządowych wzrosła czterokrotnie. Ostatecznie Thomas została zatwierdzona do Sądu Najwyższego; jednak kontrowersje te miały trwały wpływ na wydobycie problemu molestowania seksualnego z mroku i skierowanie go na światło dzienne debaty prawnej i politycznej.
POPRAWKI DO PRAWA I ORZECZENIA SĄDOWE
Ustawa o prawach obywatelskich z 1991 r. rozszerzyła prawa skarżącego, umożliwiając osobom wnoszącym powództwo na podstawie tej ustawy uzyskanie do 300 000 dolarów odszkodowania i zadośćuczynienia. Ponadto, w latach po uchwaleniu tej ustawy, wiele stanów zaostrzyło przepisy dotyczące molestowania seksualnego i wprowadziło środki mające na celu ochronę ofiar przed represjami. W ostatnich latach orzeczenia Sądu Najwyższego dotyczące molestowania seksualnego coraz bardziej koncentrują się na stosowaniu zdrowego rozsądku w danej sytuacji (tj. na postrzeganiu sytuacji z punktu widzenia osoby "rozsądnej"). W 1993 r., w wyroku w sprawie Harris przeciwko Forklift Systems, Inc., Sąd Najwyższy ustanowił standard i perspektywę oceny, czy dane zachowanie stanowi bezprawne molestowanie. Sąd orzekł jednogłośnie, że chociaż krzywda psychologiczna może być brana pod uwagę przy ocenie, czy doszło do molestowania seksualnego, nie jest ona wymogiem w roszczeniu. Z drugiej strony, w orzeczeniu stwierdzono również, że samo wypowiedzenie obraźliwego stwierdzenia zazwyczaj nie stanowi naruszenia prawa. Poniższe orzeczenia Sądu Najwyższego, wszystkie wydane w 1998 r., są uważane za jedne z najważniejszych w definiowaniu prawa dotyczącego molestowania seksualnego: Po pierwsze, w sprawie Burlington Industries, Inc. przeciwko Ellerth, skarżąca wykazała, że chociaż była narażona na obraźliwe, wulgarne zachowanie, nie ucierpiała w żaden sposób w związku ze swoją sytuacją zawodową. W rzeczywistości otrzymała awans w firmie przed rezygnacją. Sąd orzekł, że molestowanie definiuje się poprzez zachowanie osoby molestującej, a nie przez to, co później dzieje się z pracownikiem. Inna kluczowa część tego orzeczenia, a także innej sprawy, Faragher przeciwko Boca Raton, dotyczyła odpowiedzialności pracodawcy w odniesieniu do molestowania w wrogim środowisku i obowiązku pracownika zgłoszenia przestępstwa osobie posiadającej uprawnienia decyzyjne. Sprawa Faragher dotyczyła ratowniczki, która twierdziła, że była wielokrotnie molestowana seksualnie przez swoich przełożonych, ale nie złożyła formalnej skargi z obawy przed odwetem. W toku postępowania sądowego wykazano, że chociaż pracodawca Faragher, miasto Boca Raton na Florydzie, posiadał politykę antymobbingową, nie była ona znana ani skarżącej, ani jej przełożonym. Sąd wskazał, że pracodawca może skutecznie się bronić, jeśli udowodni, że posiada znaną i skuteczną politykę antymobbingową i że pracownica z niej nie skorzystała. W innym orzeczeniu, Oncale przeciwko Sundowner Offshore Services, Inc., jasno określono odpowiedzialność pracodawcy za molestowanie seksualne osób tej samej płci. Sprawa wynikła z pozwu wniesionego przez pracownika platformy wiertniczej, który był ofiarą upokarzających aktów seksualnych ze strony dwóch przełożonych i współpracownika. Sąd jednogłośnie orzekł, że molestowanie seksualne jest ścigane (tj. można ustalić odpowiedzialność) nawet wtedy, gdy osoby biorące w nim udział są tej samej płci. Kluczowym punktem orzeczenia było to, że liczy się samo zachowanie, a nie płeć osób biorących udział w przestępstwie czy obecność lub brak pożądania seksualnego.
MOŻLIWE ROZWIĄZANIA
Przed wyrokami w sprawach Farragher i Ellerth sądy rozstrzygały o odpowiedzialności pracodawców, koncentrując się głównie na działaniach podjętych po złożeniu przez pracownika skargi na molestowanie. W nowszych wyrokach sądy biorą również pod uwagę kroki podejmowane przez pracodawców przed złożeniem pozwu, w tym to, czy posiadają oni odpowiednią politykę dotyczącą molestowania seksualnego. Takie działania sądów wyraźnie pokazują, że zapobieganie pozostaje najlepszym lekarstwem na molestowanie seksualne. Poniższe strategie są rekomendowane przez różnych ekspertów prawnych i kadrowych pracodawcom, którzy chcą, aby ich miejsca pracy były wolne od molestowania seksualnego: (1) Posiadanie pisemnej, zgodnej z najnowszymi standardami polityki dotyczącej molestowania seksualnego, która w przystępny sposób wyjaśnia rodzaje zabronionych zachowań. Przed jej wydaniem należy uzyskać prawną ocenę polityki. Należy upewnić się, że polityka jest opublikowana i rozpowszechniona wśród wszystkich przełożonych i pracowników, najlepiej co najmniej raz w roku. (2) Zobowiązanie się do przestrzegania polityki na najwyższym szczeblu. Upewnij się, że pracownicy postrzegają tę kwestię jako ważną dla kadry kierowniczej wyższego szczebla firmy i wszystkich szczebli nadzoru. (3) Opracuj wewnętrzną procedurę składania skarg, która zapewni poufność i będzie miała wiele punktów dostępu, a nie tylko przełożonego pracownika. Upewnij się, że osoby chcące złożyć skargę mają dostęp do kadry kierowniczej obu płci. Chociaż Sąd Najwyższy nie nakazał pracodawcom zapewnienia procedur składania skarg, orzekł, że pracodawcy mogą uniknąć odpowiedzialności, jeśli wdrożą procedurę składania skarg, a pracownicy z niej nie skorzystają. (4) Szybko i dokładnie badaj skargi, zachowując poufność w jak największym stopniu. Zapewnij szybkie działanie w celu przeprowadzenia dochodzenia; sądy orzekały, że firmy ponoszą odpowiedzialność za molestowanie seksualne częściowo z powodu zbyt długiego czasu trwania dochodzenia. Upewnij się, że pracownicy składający skargi lub przekazujący informacje w trakcie dochodzenia nie spotkają się z odwetem. (5) Przeprowadź wysokiej jakości szkolenia, w tym szkolenia przypominające, dla pracowników, menedżerów i przełożonych, dotyczące polityk i praktyk przeciwdziałania dyskryminacji i molestowaniu seksualnemu. Upewnij się, że szkolenie obejmuje obowiązki członków każdej z tych grup w zakresie polityki firmy dotyczącej molestowania seksualnego i procedur składania skarg. Przechowuj dokumentację takich szkoleń jako namacalny dowód na to, że firma w dobrej wierze podejmuje działania mające na celu wyeliminowanie molestowania seksualnego. (6) Przeprowadź fizyczną ocenę miejsc pracy, takich jak hale fabryczne, magazyny i biura terenowe. Często można zidentyfikować potencjalne problemy, takie jak niestosowne plakaty lub wycinki komiksów. (7) Podejmij świadome i zdecydowane działania w przypadku naruszenia polityki firmy dotyczącej molestowania seksualnego. Upewnij się, że proponowane działania mają solidne podstawy prawne. Niesłusznie oskarżony sprawca molestowania, jak również oskarżyciel, jest potencjalnym powodem.
Rozwijającym się trendem w międzynarodowej działalności gospodarczej jest tworzenie wielonarodowych bloków handlowych. Bloki te składają się z grupy sąsiednich krajów, które decydują się na prowadzenie wspólnej polityki handlowej wobec reszty świata w zakresie taryf i dostępu do rynku, ale jednocześnie stosują preferencyjne traktowanie wobec siebie nawzajem. Forma organizacyjna różni się w zależności od regionu, ale uniwersalnym powodem tworzenia takich grup jest zapewnienie wzrostu gospodarczego i korzyści uczestniczącym krajom. Regionalne porozumienia o współpracy mnożą się od zakończenia II wojny światowej. Do bardziej znanych należą Unia Europejska i Północnoamerykańskie Porozumienie o Wolnym Handlu. Do mniej znanych należą MERCOSUR (Południowa Strefa Wolnego Handlu) i Grupa Andyjska w Ameryce Południowej, Rada Współpracy Zatoki Perskiej w Azji Zachodniej (GCC), Południowoazjatyckie Porozumienie o Współpracy Regionalnej w Azji Południowej (SAARC) oraz Stowarzyszenie Narodów Azji Południowo-Wschodniej (ASEAN). Istnienie i rosnący wpływ tych wielonarodowych ugrupowań oznacza, że państwa muszą stać się ich częścią, aby utrzymać globalną konkurencyjność. W pewnym stopniu ugrupowania regionalne odzwierciedlają siłę przeciwstawną rosnącej integracji gospodarki światowej - są wysiłkiem rządów zmierzającym do kontrolowania tempa integracji. Bloki handlowe przybierają różne formy, w zależności od stopnia współpracy i wzajemnych powiązań, co prowadzi do różnych poziomów integracji między uczestniczącymi krajami. Istnieje pięć poziomów formalnej współpracy między państwami członkowskimi tych ugrupowań regionalnych, od strefy wolnego handlu do najwyższego poziomu integracji, jakim jest unia polityczna. Przed utworzeniem regionalnej grupy państw na rzecz swobodniejszego handlu, niektóre rządy zgadzają się na wspólny udział w projektach, które tworzą infrastrukturę gospodarczą (taką jak tamy, rurociągi i drogi) i zmniejszają poziom barier - od tych, które pozwalają na niewielki lub zerowy handel, do tych, które zachęcają do znacznego handlu. Każdy kraj może zobowiązać się do sfinansowania części projektu, tak jak Indie i Nepal zrobiły to w przypadku zapory wodnej na rzece Gandak. Alternatywnie, mogą one dzielić się wiedzą specjalistyczną na temat programów rozwoju obszarów wiejskich i walki z ubóstwem, a także obniżać bariery handlowe w odniesieniu do wybranych towarów, tak jak miało to miejsce w przypadku SAARC, organizacji skupiającej Indie, Pakistan, Sri Lankę, Bangladesz, Nepal, Malediwy i Bhutan. Tego typu luźna współpraca jest uważana za prekursor bardziej formalnej umowy handlowej.
STREFA WOLNEGO HANDLU
Strefa wolnego handlu, charakteryzująca się wyższym poziomem integracji niż luźno utworzona spółdzielnia regionalna, obejmuje formalne porozumienie między dwoma lub większą liczbą krajów w celu zmniejszenia lub wyeliminowania ceł i pozataryfowych barier handlowych między krajami partnerskimi. Kraje członkowskie mogą jednak swobodnie utrzymywać indywidualne taryfy celne dla krajów spoza grupy. Jednym z fundamentalnych problemów związanych z tym rozwiązaniem jest to, że strefa wolnego handlu może być omijana przez państwa niebędące członkami, które mogą eksportować towary do państwa członkowskiego o najniższej taryfie zewnętrznej, a następnie transportować je do państwa członkowskiego przeznaczenia bez płacenia wyższej taryfy, która obowiązywałaby, gdyby towary trafiły bezpośrednio do państwa przeznaczenia. Aby uniemożliwić zagranicznym firmom stosowanie tej metody eksportu w celu uniknięcia ceł, zazwyczaj wprowadza się przepisy dotyczące lokalnej zawartości. Przepisy te wymagają, aby określony procent lub większa część wartości produktu pochodziła z lokalnego źródła w strefie wolnego handlu. W związku z tym przepisy dotyczące lokalnej zawartości mają na celu zachęcenie zagranicznych eksporterów do zakładania zakładów produkcyjnych w strefie wolnego handlu. Strefa wolnego handlu niekoniecznie jest wolna od barier handlowych między państwami członkowskimi. Chociaż traktat stanowi próbę rozwoju swobodniejszego handlu między państwami członkowskimi, często dochodzi do sporów handlowych i ograniczeń.
Północnoamerykański Układ Wolnego Handlu (NAFTA), umowa o wolnym handlu między Kanadą, Stanami Zjednoczonymi i Meksykiem, przewiduje zniesienie wszystkich ceł na produkty przemysłowe będące przedmiotem handlu między tymi trzema krajami w ciągu dziesięciu lat od daty wejścia w życie umowy NAFTA - 1 stycznia 1994 r. NaFTA poprzedziła umowa o wolnym handlu między Kanadą a Stanami Zjednoczonymi, która weszła w życie w 1989 r. Stany Zjednoczone zawarły również umowę o wolnym handlu z Izraelem. Meksyk prowadzi również negocjacje z Unią Europejską w sprawie utworzenia transatlantyckiej strefy wolnego handlu bez udziału Stanów Zjednoczonych. Podobnie Kanada podpisała umowę handlową z Grupą Andyjską w 1999 r., co było zapowiedzią ewentualnej umowy o wolnym handlu. Trzy kraje NAFTA różnią się znacznie pod względem struktury gospodarczej, rozwoju i wielkości. Gospodarka USA szczyciła się produktem narodowym brutto (PNB) w wysokości 7,5 biliona dolarów i populacją 240 milionów w 1998 roku. Podczas gdy dochód na mieszkańca Kanady jest podobny do dochodu Stanów Zjednoczonych, jej gospodarka stanowi tylko około 10 procent gospodarki Stanów Zjednoczonych ze względu na znacznie mniejszą populację wynoszącą 28 milionów. Z drugiej strony, gospodarka Meksyku stanowi niewiele ponad 5 procent gospodarki Stanów Zjednoczonych, mimo że ma stosunkowo dużą populację wynoszącą 92 miliony. Pomimo różnej wielkości ich gospodarek, Kanada i Meksyk są największymi i drugimi co do wielkości partnerami handlowymi Stanów Zjednoczonych. Jednak handel między Kanadą a Meksykiem pozostaje nieznaczny, podczas gdy zarówno gospodarka Kanady, jak i Meksyku są zależne od gospodarki Stanów Zjednoczonych jako głównych rynków eksportowych. Dwie trzecie kanadyjskiego eksportu i cztery piąte meksykańskiego eksportu trafia do Stanów Zjednoczonych. W obu krajach prawie połowa handlu ze Stanami Zjednoczonymi odbywa się na zasadzie wewnątrzfirmowej, a spółki macierzyste i ich spółki zależne wysyłają części i produkty między swoimi jednostkami korporacyjnymi.
Europejskie Stowarzyszenie Wolnego Handlu (EFTA)
EFTA to kolejna znana grupa wolnego handlu, składająca się z Islandii, Norwegii i Szwajcarii. Chociaż Austria, Finlandia i Szwecja były kiedyś członkami EFTA, przystąpiły do Unii Europejskiej (o czym później), a Szwajcaria złożyła wniosek o członkostwo. Wygląda na to, że EFTA będzie stopniowo łączyć się z Unią Europejską. Wspólny Rynek Południa (Mercado Comu′n del Sur lub MERCOSUR) MERCOSUR to strefa wolnego handlu obejmująca Brazylię, Argentynę, Urugwaj i Paragwaj, z automatycznym harmonogramem obniżania wewnętrznych barier handlowych, a ostatecznym celem jest utworzenie unii celnej. Chile i Boliwia również zostały członkami stowarzyszonymi odpowiednio w 1996 i 1997 roku.
UNIA CELNA
Nieodłączna słabość koncepcji strefy wolnego handlu może prowadzić do jej stopniowego zaniku w przyszłości, choć może ona nadal stanowić atrakcyjny krok w kierunku wyższego poziomu integracji. Kiedy członkowie strefy wolnego handlu dodadzą wspólne cła zewnętrzne do postanowień umowy o wolnym handlu, wówczas strefa wolnego handlu staje się unią celną. W związku z tym członkowie unii celnej nie tylko obniżyli lub znieśli cła między sobą, ale także nałożyli wspólną taryfę zewnętrzną na kraje niebędące członkami unii celnej. Zapobiega to początkowemu eksportowi przez kraje niebędące członkami do kraju członkowskiego o niskiej taryfie zewnętrznej w celu skierowania eksportu do kraju członkowskiego, który ma wyższą taryfę zewnętrzną. ASEAN jest dobrym przykładem obecnie funkcjonującej unii celnej, której ostatecznym celem jest utworzenie wspólnego rynku. Traktat Rzymski z 1958 roku, który powołał Europejską Wspólnotę Gospodarczą, utworzył unię celną złożoną z Niemiec Zachodnich, Francji, Włoch, Belgii, Holandii i Luksemburga.
WSPÓLNY RYNEK
W miarę rozwoju współpracy między krajami unii celnej, mogą one utworzyć wspólny rynek, który znosi wszelkie cła i bariery handlowe między członkami, przyjmuje wspólny zestaw taryf zewnętrznych dla państw niebędących członkami oraz usuwa wszelkie ograniczenia w przepływie kapitału i siły roboczej między krajami członkowskimi. Traktat Rzymski z 1957 roku, który ustanowił Europejską Wspólnotę Gospodarczą, miał na celu stworzenie wspólnego rynku - cel, który został w znacznym stopniu osiągnięty na początku lat 90. XX wieku w Europie Zachodniej, znanej jako Wspólnota Europejska (Austria, Belgia, Dania, Francja, Niemcy, Irlandia, Włochy, Luksemburg, Holandia, Portugalia, Hiszpania i Wielka Brytania). Niemieckie banki mogą teraz otwierać oddziały we Włoszech, a portugalscy pracownicy mogą mieszkać i pracować w Luksemburgu. Podobnie kraje Ameryki Południowej, na czele z MERCOSUR i Grupą Andyjską, aktywnie dążą do stworzenia wspólnego rynku dla ponad 300 milionów konsumentów do 2005 roku.
UNIA WALUTOWA
Unia walutowa stanowi czwarty poziom integracji między krajami niezależnymi politycznie. Ściśle rzecz biorąc, unia walutowa nie wymaga istnienia wspólnego rynku ani unii celnej, strefy wolnego handlu ani regionalnej współpracy na rzecz rozwoju. Jest to jednak logiczny kolejny krok po wspólnym rynku, ponieważ wymaga kolejnego, wyższego poziomu współpracy między państwami członkowskimi. W Europie Traktat z Maastricht, który zastąpił Traktat Rzymski i wezwał do utworzenia unii (a stąd zmiana nazwy ze Wspólnoty Europejskiej na Unię Europejską), stworzył unię walutową, a jej ostatecznym celem jest stworzenie unii politycznej, w ramach której państwa członkowskie przyjmują wspólną walutę i wspólny bank centralny. Unia walutowa stanowi czwarty poziom integracji między państwami niezależnymi politycznie. Unia Europejska (UE) składa się z piętnastu państw (Austrii, Belgii, Danii, Finlandii, Francji, Niemiec, Grecji, Irlandii, Włoch, Luksemburga, Holandii, Portugalii, Hiszpanii, Szwecji i Zjednoczonego Królestwa). 1 stycznia 1999 roku jedenaście krajów tzw. strefy euro (z wyłączeniem członków UE: Danii, Grecji, Szwecji i Wielkiej Brytanii) rozpoczęło przedsięwzięcie, które stworzyło drugą co do wielkości strefę ekonomiczną na świecie, po Stanach Zjednoczonych. Zalążki euro zostały zasiane trzy dekady temu. W 1969 roku Pierre Werner, były premier Luksemburga, został poproszony o przewodniczenie think tankowi, który miał opracować metody osiągnięcia europejskiej unii walutowej (UGW) do 1980 roku. Raport Wernera, opublikowany w październiku 1970 roku, przedstawiał trzyetapowy plan, bardzo podobny do projektu ostatecznie przyjętego w Traktacie z Maastricht, podpisanym 7 lutego 1992 roku. Podobnie jak Traktat z Maastricht, plan przewidywał zastąpienie walut lokalnych wspólną walutą. Jednak UGW została zawieszona po chaosie monetarnym wywołanym pierwszym kryzysem naftowym. Kolejnym krokiem na drodze do unii walutowej było utworzenie Europejskiego Systemu Walutowego (ESW) pod koniec lat 70. XX wieku. Z wyjątkiem Wielkiej Brytanii, wszystkie państwa członkowskie Unii Europejskiej przystąpiły do Mechanizmu Kursów Walutowych (ERM), który określał dwustronne kursy walut. Waluty dziewięciu państw członkowskich nadal mogły podlegać wahaniom, ale wahania były ograniczone do marginesu 2,25%. ESW doprowadził również do powstania europejskiej jednostki walutowej (ECU) - w pewnym sensie poprzedniczki euro. Należy zauważyć, że ECU nigdy nie stało się walutą fizyczną. Podwaliny unii walutowej położono na szczycie w Madrycie w 1989 roku, kiedy państwa członkowskie UE podjęły kroki prowadzące do swobodnego przepływu kapitału. Traktat z Maastricht, podpisany wkrótce potem, określił wytyczne dotyczące tworzenia UGW. Unia walutowa miała zostać zwieńczona wprowadzeniem wspólnej waluty do 1999 roku. Traktat ten ustanowił również normy dotyczące deficytu budżetowego, długu publicznego i inflacji, które kandydaci musieli spełnić, aby kwalifikować się do członkostwa w UGW. Wszyscy kandydaci, z wyjątkiem Grecji, spełnili te normy, choć w niektórych przypadkach (np. Belgia, Włochy) zasady zostały narzucone dość liberalnie. Te jedenaście krajów tworzących strefę euro zrzekło się prawa do emisji własnej waluty od stycznia 1999 roku. Polityką pieniężną dla tej grupy krajów zajmuje się obecnie Europejski Bank Centralny z siedzibą we Frankfurcie w Niemczech. Trzy państwa członkowskie UE - a mianowicie Wielka Brytania, Szwecja i Dania - zdecydowały się na wycofanie się i niezdecydowanie. Akcje, obligacje i dług publiczny są obecnie denominowane w euro. Firmy mogą używać euro w swoich transakcjach i procedurach księgowych. Do 2002 roku euro będzie znajdować się w "strefie mroku" - będzie istnieć jako waluta wirtualna, ale jeszcze nie fizycznie. Wielki Wybuch w strefie euro nastąpi w 2002 roku, kiedy euro stanie się rzeczywistością i wejdzie do obiegu we wszystkich państwach członkowskich UGW. W pierwszej połowie 2002 roku waluty lokalne i euro będą współistnieć. Po 1 lipca 2002 roku euro zastąpi waluty lokalne, które nie będą już akceptowane jako prawny środek płatniczy.
UNIA POLITYCZNA
Zwieńczeniem procesu integracji jest utworzenie unii politycznej, która może być inną nazwą dla narodu, gdy taka unia rzeczywiście osiągnie opisany tutaj poziom integracji na zasadzie dobrowolności. Ostatecznym deklarowanym celem Traktatu z Maastricht jest unia polityczna. Obecnie Wielka Brytania pozostaje głównym przeciwnikiem oddawania jakiejkolwiek części suwerenności państwa narodowego na rzecz jakiejkolwiek planowanej unii politycznej. Nawet czołowi orędownicy integracji europejskiej - Niemcy i Francja - mają zastrzeżenia co do wspólnej polityki obronnej i zagranicznej. Czasami kraje łączą się w luźną unię polityczną ze względu na wspólną historię, jak w przypadku Brytyjskiej Wspólnoty Narodów, składającej się z narodów, które kiedyś były częścią Imperium Brytyjskiego. Członkowie Wspólnoty korzystali z preferencyjnych taryf celnych na początku, ale po przystąpieniu Wielkiej Brytanii do Unii Europejskiej to preferencyjne traktowanie zostało utracone. Obecnie grupa ta istnieje jedynie jako forum dyskusji i wyraz wspólnych więzi historycznych. Najbardziej znaną unią polityczną, jaka istnieje obecnie, są Stany Zjednoczone, których poszczególne państwa przeszły proces podobny do ewolucyjnej ścieżki rozwoju różnych form bloków handlowych we wczesnych latach po ogłoszeniu niepodległości od rządów Wielkiej Brytanii w 1776 roku.
Podstawowym celem funkcji księgowej w organizacji jest przetwarzanie informacji finansowych i sporządzanie sprawozdań finansowych na koniec okresu obrachunkowego. Firmy muszą systematycznie przetwarzać informacje finansowe i muszą mieć pracowników, którzy sporządzają sprawozdania finansowe w cyklu miesięcznym, kwartalnym i / lub rocznym. Aby osiągnąć te podstawowe cele, należy wykonać szereg czynności. Razem te kroki są znane jako cykl rozliczeniowy. Kroki mające zastosowanie do ręcznego systemu księgowego opisano poniżej. Później odbędzie się krótkie omówienie skomputeryzowanego systemu przetwarzania.
KROKI CYKLU
1. Gromadzenie i analiza danych z transakcji i zdarzeń: W miarę pojawiania się transakcji i zdarzeń związanych z zasobami finansowymi są analizowane pod kątem ich wpływu na sytuację finansową przedsiębiorstwa. Jako przykład rozważmy sprzedaż na jeden dzień w punkcie sprzedaży detalicznej, która jest zbierana na taśmie kasowej. Te sprzedaże stają się danymi wejściowymi do systemu księgowego. Każda organizacja tworzy plan kont, który identyfikuje kategorie do rejestrowania transakcji i zdarzeń. Plan kont dla handlu detalicznego , o którym mowa wcześniej w tym paragrafie, będzie obejmował Cash and Sales.
2. Dziennik transakcji: Po zebraniu i przeanalizowaniu informacji uzyskanych w pierwszym kroku, informacje są wprowadzane w dzienniku głównym, zwanym księgą pierwotnego wpisu. Kronikowanie transakcji może odbywać się w sposób ciągły, ale ten krok można wykonać zbiorczo na koniec dnia, jeśli dane z podobnych transakcji są sortowane i gromadzone, na przykład na taśmie kasowej. Pod koniec dnia sprzedaż w wysokości 4000 USD za gotówkę zostanie odnotowana w dzienniku głównym w następującej formie:
Gotówka 4000
Sprzedaż 4000
3. Księgowanie w księdze głównej: Zapisy dziennika głównego są księgowane w księdze głównej zorganizowanej według kont. Wszystkie transakcje na tym samym koncie są zbierane i podsumowywane; na przykład konto "Sprzedaż" będzie gromadzić całkowitą wartość sprzedaży w danym okresie. Gdyby księgowanie odbywało się codziennie, konto "Sprzedaż" w księdze pokazywałoby łączną sprzedaż z każdego dnia, a także łączną sprzedaż za dotychczasowy okres. Księgowanie na kontach księgowych może być rzadsze, na przykład na koniec każdego dnia, na koniec tygodnia lub nawet na koniec miesiąca.
4. Przygotuj nieskorygowane saldo próbne: Pod koniec okresu księgowanie podwójnego zapisu wymaga, aby obciążenia i uznania zapisane w księdze głównej były równe. Debet i kredyt oznaczają jedynie pozycję - odpowiednio lewą i prawą. Niektóre rachunki mają zwykle salda debetowe (np. Aktywa i wydatki), a inne konta mają salda kredytowe (np. Pasywa, kapitał własny i przychody właścicieli). Ponieważ transakcje są rejestrowane w dzienniku głównym, a następnie księgowane w księdze, wszystkie kwoty odnotowane po stronie debetowej kont (tj. Zarejestrowane po lewej stronie) muszą być równe wszystkim kwotom zarejestrowanym po stronie kredytowej kont (tj. prawa strona). Przygotowanie nieskorygowanego salda próbnego polega na sprawdzeniu równości obciążeń i kredytów zapisanych w księdze głównej. Jeśli na tym etapie zostaną znalezione nierówne kwoty obciążeń i kredytów, przyczyna nierówności jest badana i korygowana przed przejściem do następnego kroku. Ponadto to nieskorygowane saldo próbne zapewnia salda wszystkich kont, które mogą wymagać korekty w następnym kroku.
5. Przygotuj korekty: Korekty na koniec okresu są wymagane w celu doprowadzenia rachunków do ich właściwych sald po uwzględnieniu transakcji i / lub zdarzeń jeszcze niezarejestrowanych. W ramach rachunkowości memoriałowej przychody są rejestrowane w momencie ich uzyskania, a koszty w momencie ich poniesienia. W związku z tym może być wymagany wpis na koniec okresu, aby odnotować dochód, który został osiągnięty, ale nie został jeszcze ujęty w księgach. Podobnie może być wymagana korekta w celu odnotowania kosztu, który mógł zostać poniesiony, ale jeszcze nie został zaksięgowany.
6. Przygotuj skorygowane saldo próbne: Podobnie jak w przypadku nieskorygowanego salda próbnego, na tym etapie sprawdza się równość obciążeń i kredytów. Jednak, aktywa, pasywa, kapitał własny właścicieli, przychody i koszty będą teraz odzwierciedlać korekty dokonane w poprzednim kroku. Jeśli kwoty obciążeń i kredytów są nierówne lub jeśli konto wydaje się być nieprawidłowe, rozbieżność lub błąd są badane i korygowane.
7. Sporządzanie sprawozdań finansowych: Sprawozdania finansowe są sporządzane z wykorzystaniem skorygowanych sald ze skorygowanego salda próbnego. Są to jedne z podstawowych wyników systemu rachunkowości finansowej.
8. Zamknij konta: Dochody i wydatki są gromadzone i raportowane według okresów, miesięcznie, kwartalnie lub co roku. Aby nie dopuścić do ich dodania do przychodów i kosztów z innego okresu lub zsynchronizowania ich z przychodami i kosztami w innym okresie, należy je zamknąć - to znaczy przy zerowych saldach - na koniec każdego okresu. Ich salda netto, które stanowią dochód lub stratę danego okresu, przenoszone są na kapitał własny właścicieli. Po zamknięciu kont przychodów i wydatków jedynymi kontami, które mają salda, są konta aktywów, zobowiązań i kapitałów własnych właścicieli. Ich salda przenoszone są na następny okres.
9. Przygotuj saldo próbne po zamknięciu: Celem tego ostatniego kroku jest dwojakie: ustalenie, czy wszystkie rachunki przychodów i rozchodów zostały prawidłowo zamknięte oraz sprawdzenie równości sald debetowych i kredytowych na wszystkich kontach bilansowych, to znaczy aktywa, pasywa i kapitał własny właścicieli.
KOMPUTEROWY SYSTEM KSIĘGOWY
Skomputeryzowany system księgowy oszczędza dużo czasu i wysiłku, znacznie redukuje (jeśli nie eliminuje) błędów matematycznych i pozwala na znacznie bardziej aktualne informacje niż system ręczny. W środowisku czasu rzeczywistego konta są dostępne i aktualizowane natychmiast, aby odzwierciedlić aktywność, łącząc w ten sposób kroki 2 i 3, jak omówiono w poprzedniej sekcji. Potrzeba testowania równości obciążeń i kredytów za pomocą sald próbnych zwykle nie jest wymagana w komputerowym systemie księgowym, ponieważ większość systemów sprawdza równość kwot debetu i kredytu w momencie ich wprowadzania. Gdyby ktoś próbował wprowadzić dane zawierające nierówność, system nie zaakceptowałby danych wejściowych. Ponieważ komputer jest zaprogramowany do księgowania kwot na różnych kontach i obliczania nowych sald w miarę dokonywania nowych zapisów, możliwość błędu matematycznego jest znacznie ograniczona. Komputery mogą być również zaprogramowane do automatycznego rejestrowania niektórych korekt pod koniec okresu. Większość programów jest również w stanie przygotować sprawozdanie finansowe po ustaleniu, że salda kont są prawidłowe. Proces zamykania na koniec okresu może również zostać wykonany automatycznie przez komputer. Nadal wymagana jest ludzka ocena, aby poprawnie przeanalizować dane w celu wprowadzenia ich do systemu komputerowego. Ponadto często wymagana jest wiedza i osąd księgowego, aby określić korekty, które są potrzebne na końcu okresu sprawozdawczego. Jednak mechanika systemu może być łatwo obsługiwana przez komputer.
Cykl koniunkturalny to wzloty i upadki ogólnego poziomu aktywności gospodarczej. Wszystkie nowoczesne, uprzemysłowione kraje mają wahania w swoich wskaźnikach aktywności gospodarczej, co prowadzi do obserwacji, że gospodarka jednego kraju "kwitnie", podczas gdy gospodarka innego kraju znajduje się w "recesji". Kiedy gospodarka przechodzi z dodatniego do ujemnego wskaźnika wzrostu, mówi się, że osiągnęła "szczyt" i weszła w recesję. Kiedy gospodarka przechodzi z ujemnego do dodatniego wskaźnika wzrostu, mówi się, że osiągnęła "dół" i weszła w "odzyskiwanie".
CZYM JEST CYKL KONIUNKTURALNY?
Chociaż istnieje coś godnego miana "cyklu koniunkturalnego", próby dokładniejszych klasyfikacji lub podkategorii cykli koniunkturalnych nie były szczególnie owocne. Niektórzy ekonomiści po prostu zastosowali szeroką dychotomię między cyklami "głównymi" i "mniejszymi". Opisowo może to mieć znaczenie. Szczególnie poważna recesja jest określana jako "depresja". Depresja lat 30. XX wieku różniła się ilościowo od recesji z lat 1990-1991. Produkcja gospodarki spadła o prawie 50 procent w pierwszej i o mniej niż 1 procent w drugiej. Czasami przydatne jest mówienie o cyklach określonych szeregów czasowych; to znaczy cyklu stóp procentowych, cyklu zapasów, cyklu budowy itd. Biorąc pod uwagę różnorodność ogólnych cykli gospodarczych, można znaleźć zwroty w ogólnym poziomie aktywności gospodarczej, w których poszczególne sektory gospodarki wydają się, przynajmniej przez jakiś czas, niezależne od reszty gospodarki. Najczęściej wymienianymi indywidualnymi cyklami są cykl zapasów, cykl budowy lub konstrukcji oraz cykl rolniczy. Standardowy cykl koniunkturalny jest czasami określany jako cykl zapasów, a niektórzy teoretycy cyklu koniunkturalnego popularnie tłumaczą surowość zwrotów w gospodarce zbieżnością czasową w poszczególnych cyklach. Pomysł ustalenia czasu poszczególnych szeregów czasowych w odniesieniu do ogólnego poziomu działalności gospodarczej implikuje konkretne daty cyklu koniunkturalnego. Jak ustalić szczyty i dołki cyklu koniunkturalnego? Aby stwierdzić, czy coś wyprzedza czy opóźnia cykl koniunkturalny, trzeba mieć jakiś układ odniesienia; stąd cykl koniunkturalny jest określany jako cykl odniesienia, a jego szczyty i dołki jako punkty zwrotne odniesienia. W Stanach Zjednoczonych punkty zwrotne odniesienia są ustalane przez National Bureau of Economic Research (NBER), organizację badawczą non-profit. Organizacja ta, pierwotnie pod kierownictwem Wesleya Claire′a Mitchella (1874-1948), była pionierem badań nad cyklami koniunkturalnymi pod koniec lat dwudziestych XX wieku. Obecnie decyzje NBER dotyczące cyklu odniesienia są traktowane jako wyrocznia, chociaż w rzeczywistości są dość subiektywne. Żaden pojedynczy szereg czasowy ani grupa szeregów czasowych nie jest uznawana za cykl odniesienia. Komitet profesjonalnych analityków cykli koniunkturalnych zwołany przez NBER ustala oficjalne szczyty i dołki zgodnie z następującą definicją:
Cykle koniunkturalne to rodzaj wahań występujących w ogólnej aktywności gospodarczej narodów, które organizują swoją pracę głównie w przedsiębiorstwach: cykl składa się z ekspansji występujących mniej więcej w tym samym czasie w wielu działalnościach gospodarczych, po których następują podobnie ogólne recesje, recesje i ożywienia, które łączą się w fazie ekspansji następnego cyklu; ta sekwencja zmian jest powtarzalna, ale nie okresowa; pod względem czasu trwania cykle koniunkturalne wahają się od ponad roku do dziesięciu lub dwunastu lat; nie można ich podzielić na krótsze cykle o podobnym charakterze z amplitudami zbliżonymi do ich własnych. (Burns i Mitchell, 1946)
Z niewielkimi modyfikacjami, ta definicja była używana od 1927 roku. Chociaż większość definicji jest oczywista, nie jest ona aż tak rygorystyczna. Nie mówi czegoś takiego, na przykład, że jeśli całkowita produkcja gospodarki (realny PKB) spada w tempie rocznym o 1 procent przez dwa kolejne kwartały, to weszliśmy w recesję. Definicja mówi jednoznacznie, że cykle koniunkturalne są "powtarzające się, ale nie okresowe". Jedynym prawdziwym ograniczeniem w tej definicji jest to, że jeśli zdefiniujesz cykl koniunkturalny, powiedzmy, od szczytu do szczytu, nie powinieneś być w stanie znaleźć innego cyklu o równej amplitudzie między tymi dwoma szczytami. Jeśli tak, zrobiłeś to źle. W połowie 2000 roku tabela 1 jest nadal aktualna. Najnowszy punkt zwrotny zidentyfikowany przez NBER miał miejsce w marcu 1991 roku. Od kwietnia 2000 roku gospodarka USA nadal się rozwijała. Zauważ z tabeli, że wszystko, co zostało ustalone w odniesieniu do cyklu koniunkturalnego, to szczyt i dno każdego cyklu. To ustalenie nie mówi nam absolutnie nic o tempie wzrostu lub spadku ogólnego poziomu aktywności gospodarczej, nic o skali boomu lub powadze recesji. Najczęściej używanym szeregiem jako wskaźnikiem zastępczym cyklu koniunkturalnego, gdy wymagane jest coś więcej niż tylko punkty zwrotne, jest realny PKB, jeśli można sobie poradzić z danymi kwartalnymi, lub indeks produkcji przemysłowej, jeśli wymagane są dane miesięczne. Indeks produkcji przemysłowej jest miarą aktywności gospodarczej, publikowaną co miesiąc przez Federal Reserve Board w Waszyngtonie, D.C. Jak można się domyślić po uwadze, jaką poświęcają im media, indeks cen konsumpcyjnych i stopa bezrobocia są powszechnie używanymi miarami powagi cyklu koniunkturalnego. Żaden z nich nie odpowiada ściśle cyklowi odniesienia.
TEORIE CYKLU KONIUNKTURALNEGO
Pierwszy wykład na kursie wprowadzającym do ekonomii zwykle podkreśla, że wydatki jednej jednostki gospodarczej są dochodami innych jednostek gospodarczych. Daje to dość solidną podstawę do oczekiwania sympatycznych ruchów w wielu sektorach gospodarki. Istnieją dobre podstawy teoretyczne i znaczące wsparcie empiryczne dla kumulatywnego ruchu w górę i w dół w gospodarce. Ekspansja jednego sektora jest podstawą ekspansji innego sektora, ogólny dobrobyt obniża ryzyko i sprawia, że kredyt jest łatwiej dostępny itd.; ale najsłabszą częścią teorii cyklu koniunkturalnego i najtrudniejszym problemem w prognozowaniu są punkty zwrotne. Dlaczego ogólny ruch w górę lub w dół się kończy? Czasami jest to oczywiste. Kiedy na przykład wojna zaczyna się lub kończy proporcjonalną i dramatyczną zmianą wydatków wojskowych, przyczyna początku lub końca boomu gospodarczego jest dość jednoznaczna. Historycznie jednak tylko niewielka mniejszość punktów zwrotnych jest wynikiem konkretnych, identyfikowalnych zdarzeń. Istnieje wiele teorii na temat innych przyczyn cyklu koniunkturalnego. W 1917 roku wybitny amerykański ekonomista J. M. Clark opublikował artykuł zatytułowany "Przyspieszenie biznesu i prawo popytu: czynnik techniczny w cyklach gospodarczych". Jego czynnikiem technicznym była obserwacja, że przy stałym stosunku kapitału do produkcji niewielka procentowa zmiana w sprzedaży końcowej spowodowałaby dużą procentową zmianę inwestycji. Każda innowacja generuje tymczasowy popyt na wymagane dobra inwestycyjne. Po dokonaniu początkowej inwestycji rynek zastępczy wymaga niższej stopy inwestycji. Nazywa się to zasadą przyspieszenia. Jeśli do wyprodukowania stali o wartości 1 USD rocznie potrzeba hut stali o wartości 1 USD, wzrost popytu na stal o 1 USD tymczasowo wygeneruje popyt na huty stali o wartości 10 USD. Inny wczesny teoretyk cyklu koniunkturalnego, Joseph Schumpeter (1883-1950), zauważył, że nic nie jest stałe w cyklu koniunkturalnym i nic nigdy nie wraca do punktu wyjścia. To właśnie sprawia, że każdy cykl koniunkturalny jest wyjątkowy. Gospodarka rośnie i zmienia się z każdym cyklem - nowe produkty, nowe firmy, nowi konsumenci. Jak zauważył Schumpeter w 1939 r., "Jeśli chodzi o historię, to fizjologii i zoologii, a nie mechanice, nasza nauka zawdzięcza analogiczne rozróżnienie, które znajduje się u progu wszelkiego jasnego myślenia o sprawach ekonomicznych" . Gospodarka rośnie i zmienia się. Nazywał to procesem "twórczej destrukcji". Schumpeter doszedł do wniosku, że to, co większość z nas uważa za "postęp", jest źródłem problemu. Uważał, że gdy przedsiębiorcy wymyślają nowe sposoby działania, zakłóca to równowagę i powoduje wahania. Schumpeter rozróżnia wynalazki (które mogą zbierać kurz przez lata) i innowacje, które są komercyjnymi zastosowaniami poprzednich wynalazków. Wynalazki pojawiają się losowo w czasie. Innowacje mają tendencję do grupowania się, tworząc w ten sposób cykle aktywności gospodarczej. Wielu teoretyków cykli koniunkturalnych przypisuje znaczącą rolę systemowi pieniężnemu i stopom procentowym. Na początku XX wieku szwedzki ekonomista Knut Wicksell (1851-1926) argumentował, że jeśli "naturalna" stopa procentowa wzrośnie powyżej "bankowej" stopy procentowej, poziom aktywności gospodarczej zacznie wzrastać. Współcześnie naturalna stopa procentowa to to, co przedsiębiorstwa spodziewają się zarobić na rzeczywistych inwestycjach. Stopa bankowa to zwrot z aktywów finansowych w ogóle, a w szczególności z kredytów banków komercyjnych. Boom zaczyna się, gdy z jakiegokolwiek powodu koszt pożyczania spada znacznie poniżej oczekiwanych zwrotów z inwestycji. Ta różnica między stopą zwrotu z aktywów realnych i finansowych generuje popyt na kredyty bankowe ze strony inwestorów, którzy chcą wykorzystać okazję do zysku. Gospodarka przeżywa boom. W pewnym momencie stopa bankowa zacznie rosnąć i/lub stopa realna zacznie spadać. Gdy oczekiwana stopa zwrotu z inwestycji spadnie poniżej stopy, po której można pożyczyć fundusze, proces zacznie się odwracać - i rozpocznie się recesja. W miarę spłacania kredytów bankowych (lub ich niewywiązywania się ze zobowiązań) kredyt bankowy jest zmniejszany, a gospodarka odpowiednio zwalnia. W ostatnich latach teoria cykli koniunkturalnych skupiła się na sporze o źródło cyklicznej niestabilności. Kwestia przyczyn wzrostów i spadków poziomu aktywności gospodarczej wzbudziła duże zainteresowanie w latach 80. i 90. XX wieku. Rysunek 1 pokazuje, jak podzielone są strony debaty. Po pierwsze, pojawia się pytanie, czy sektor prywatny gospodarki jest z natury stabilny czy niestabilny - innymi słowy, czy obserwowane wahania mają swoje źródło w rządzie czy w sektorze prywatnym? Po jednej stronie są ci, których można by nazwać klasycznymi ekonomistami, którzy są przekonani, że gospodarka jest z natury stabilna. Twierdzą, że historycznie rzecz biorąc, polityka rządu destabilizowała ją w perwersyjny sposób. Po drugiej stronie są ci, których można by nazwać keynesistami, nazwanymi na cześć słynnego brytyjskiego ekonomisty Johna Maynarda Keynesa (1883-1946). Keynesiści uważają, że psychologiczne zmiany w preferencjach zakupowych i oszczędnościowych konsumentów oraz w zaufaniu przedsiębiorstw są istotnym źródłem niestabilności. Istnieje cała literatura na temat politycznych cykli koniunkturalnych. Jak zauważył współczesny ekonomista William D. Nordhaus w 1989 r., "teoria politycznego cyklu koniunkturalnego, która analizuje interakcje systemów politycznych i gospodarczych, powstała z oczywistych faktów życiowych, że wyborcy dbają o gospodarkę, podczas gdy politycy dbają o władzę". Pomysł polega na tym, że politycy u władzy będą skłonni przestrzegać polityki promującej krótkoterminowy dobrobyt w okresie wyborów i pozwolą na wystąpienie recesji w innych okresach. Dowody na to, że stan gospodarki wpływa na wzorce głosowania, są silne, podobnie jak wyraźne pragnienie urzędujących polityków, aby wpływać na gospodarkę; trudno jednak przedstawić argument, że przytłaczający wyznacznik poziomu i czasu wahań koniunkturalnych jest uwarunkowany politycznie. W niektórych momentach niedawnej historii politycznie uwarunkowane polityki były najwyraźniej czynnikiem decydującym, a w innych nie. Jeśli chodzi o wpływ polityki rządowej, istnieje spór co do względnego znaczenia polityki pieniężnej (kontroli podaży pieniądza) i polityki fiskalnej (wydatków rządowych i podatków). Ci, którzy uważają, że polityka pieniężna miała ogólnie destabilizujący wpływ na gospodarkę, są znani jako monetaryści. Większość ekonomistów akceptuje fakt, że polityka fiskalna, zwłaszcza w czasie wojny, była źródłem cyklicznej niestabilności. Jak zauważono powyżej, to tak zwani ekonomiści keynesowscy uważają, że sektor prywatny jest z natury niestabilny. Zauważając historyczną niestabilność inwestycji w aktywa materialne, podkreślili również zmiany w preferencjach płynności (popyt na pieniądz) jako niezależne źródło niestabilności. W opozycji do standardowego stanowiska keynesowskiego w ostatnich latach powstała szkoła myślenia kładąca nacisk na realne cykle biznesowe. Szkoła ta twierdzi, że zmienne niepieniężne w sektorze prywatnym są głównym źródłem cyklicznej niestabilności. Twierdzą, że obserwowane ruchy sympatyczne między zmiennymi pieniężnymi a poziomem aktywności gospodarczej wynikają z przepływu przyczynowości od tych drugich do pierwszych. Zmiany w czynnikach rzeczywistych powodują zmianę czynników pieniężnych, a nie odwrotnie. Pod tym względem są trochę podobni do Wicksella, o którym była mowa wcześniej.
Certyfikowany audytor wewnętrzny (CIA) to osoba, która spełniła wymagania dotyczące certyfikacji ustalone przez Institute of Internal Auditors (IIA). Wymagania dotyczą wykształcenia, doświadczenia i pomyślnego zdania egzaminu. Uzyskanie uprawnień certyfikowanego audytora wewnętrznego jest namacalnym dowodem spełnienia kwalifikacji zawodowych ustalonych przez IIA. IIA, założona w 1941 r. na spotkaniu w Nowym Jorku, ma obecnie ponad 70 000 członków na całym świecie w ponad 100 krajach. Egzamin CIA został przeprowadzony po raz pierwszy w 1974 r.
EGZAMIN
Egzamin CIA jest oferowany dwa razy w roku, raz w maju i raz w listopadzie. Egzamin składa się z czterech części:
Część I: Proces audytu wewnętrznego
• Audyt
• Profesjonalizm
• Oszustwa
Część II: Umiejętności audytu wewnętrznego
• Rozwiązywanie problemów i ocena dowodów audytu
• Gromadzenie danych, dokumentowanie i raportowanie
• Próbkowanie i matematyka
Część III: Kontrola zarządcza i technologia
• Kontrola zarządcza
• Zarządzanie operacyjne
• Technologia informacyjna
Część IV: Środowisko audytu
• Rachunkowość finansowa
• Finanse
• Rachunkowość zarządcza
• Środowisko regulacyjne
Każda część egzaminu składa się z 80 pytań wielokrotnego wyboru. Aby pomyślnie zdać egzamin, kandydat musi znać Standardy Instytutu Audytorów Wewnętrznych dotyczące Profesjonalnej Praktyki Audytu Wewnętrznego oraz Kodeks Etyczny instytutu. Nie jest konieczne, aby być członkiem IIA, aby przystąpić do egzaminu. Jednak każdemu niezrzeszonemu, który zda egzamin CIA, oferowane jest roczne bezpłatne członkostwo. Rada Regentów, która administruje egzaminem CIA, uznaje osiągnięcia innych certyfikatów zawodowych. Dlatego osoby, które już posiadają certyfikat, kwalifikują się do otrzymania zaliczenia za część egzaminu. Część IV egzaminu została zaprojektowana w celu zapewnienia Zawodowego Zaliczenia Uznania. Kandydaci, którzy chcą ubiegać się o Zawodowe Zaliczenie Uznania, muszą złożyć formularz rejestracyjny z kopią certyfikatu lub listem od organizacji sponsorującej, w którym stwierdza się, że dana osoba spełniła wymagania egzaminu. Organizacja sponsorująca może zostać skontaktowana w celu zweryfikowania informacji podanych przez kandydata. Na przykład w Stanach Zjednoczonych osoba, która jest certyfikowanym księgowym, certyfikowanym księgowym zarządczym, certyfikowanym audytorem systemów informatycznych lub certyfikowanym audytorem bankowym, ma prawo do otrzymania Professional Recognition Credit za część IV egzaminu CIA. W Australii, Kanadzie i Wielkiej Brytanii tytuł biegłego rewidenta otrzymałby Professional Recognition Credit od Rady Regentów. Egzamin jest nieujawniany. Osoby przystępujące do egzaminu podpisują oświadczenie, w którym wskazują, że nie ujawnią pytań i odpowiedzi po przystąpieniu do egzaminu. IIA uważa ujawnienie pytań egzaminacyjnych przez osobę, która przystąpiła do egzaminu, za naruszenie kodeksu etyki. Próg zaliczenia egzaminu wynosi 75 procent. W 1996 r. było 4646 kandydatów; średni wskaźnik zaliczenia części egzaminu wynosi 45 procent. (Careers in Accounting 1997).
WYMAGANIA DOTYCZĄCE DOŚWIADCZENIA
Aby zostać CIA, wymagane jest dwudziestoczteromiesięczne doświadczenie w audycie wewnętrznym lub jego odpowiedniku. Reprezentatywne równoważne doświadczenie może obejmować zapewnianie jakości, ocenę kontroli wewnętrznej lub audyt zewnętrzny. Tytuł magistra może być zastąpiony rocznym doświadczeniem. Rada Regentów ustala dopuszczalność równoważnego doświadczenia zawodowego.
Programy Certified Management Accountant (CMA) i Certified in Financial Management (CFM) mają na celu uznanie unikalnych kwalifikacji i wiedzy specjalistycznej profesjonalistów zajmujących się rachunkowością zarządczą i zarządzaniem finansowym. Certyfikaty te wyróżniają się w dzisiejszym klimacie gospodarczym i dają możliwość certyfikowania wiedzy specjalistycznej w obszarach biznesowych, które są kluczowe dla procesu podejmowania decyzji. Certyfikaty CMA i CFM, wprowadzone przez Institute of Management Accountants (IMA) odpowiednio w 1972 i 1996 roku, cieszą się globalnym uznaniem i uzyskały poparcie około 200 organizacji korporacyjnych i akademickich. Programy CMA i CFM mają cztery cele:
• Ustanowić rachunkowość zarządczą i zarządzanie finansami jako uznane zawody poprzez określenie roli profesjonalisty, podstawowego zasobu wiedzy i kierunku studiów, w ramach którego taka wiedza jest zdobywana
• Zachęcać do wyższych standardów edukacyjnych w dziedzinie rachunkowości zarządczej i zarządzania finansami
• Ustanowić obiektywny pomiar wiedzy i kompetencji jednostki w dziedzinie rachunkowości zarządczej i zarządzania finansami
• Zachęcać do ciągłego rozwoju zawodowego
Treść egzaminów certyfikacyjnych przedstawia wiedzę, umiejętności i zdolności wymagane od profesjonalistów biznesowych w dziedzinie rachunkowości zarządczej i zarządzania finansami. Treść jest okresowo weryfikowana przez analizę praktyczną przeprowadzaną przez IMA. Treść, objęta czterema częściami egzaminu dla każdego programu, obejmuje:
• Ekonomia, finanse i zarządzanie
• Rachunkowość finansowa i sprawozdawczość (CMA) lub zarządzanie finansami korporacyjnymi (CFM)
• Sprawozdawczość zarządcza, analiza i kwestie behawioralne
• Analiza decyzji i systemy informacyjne
Egzamin z rachunkowości finansowej i sprawozdawczości jest uchylany na żądanie przez osoby, które zdały egzamin CPA w USA; nie dotyczy to jednak egzaminu z zarządzania finansami korporacyjnymi. Kandydaci ubiegający się o certyfikat muszą spełniać następujące kryteria, aby zostać CMA lub CFM:
• Wykształcenie: Kandydaci muszą posiadać tytuł licencjata w dowolnej dziedzinie z akredytowanej uczelni lub uniwersytetu. Studenci uczęszczający do akredytowanych uniwersytetów amerykańskich mogą przystąpić do egzaminów, ale muszą spełnić wymagania edukacyjne przed uzyskaniem certyfikatu. Dyplomy z instytucji spoza Stanów Zjednoczonych muszą zostać ocenione przez niezależną agencję. Wymagania edukacyjne mogą być również spełnione poprzez posiadanie licencji CPA do wykonywania zawodu lub innych porównywalnych kwalifikacji zawodowych.
• Zatrudnienie: Kandydaci muszą ukończyć dwa lata ciągłego doświadczenia zawodowego w rachunkowości zarządczej i/lub zarządzaniu finansami. Kwalifikujące doświadczenie obejmuje stanowiska wymagające regularnych osądów z wykorzystaniem zasad rachunkowości zarządczej i zarządzania finansami. Doświadczenie to można ukończyć przed lub w ciągu siedmiu lat od zdania egzaminu.
• Referencje: Nazwiska dwóch referencji muszą zostać podane w momencie składania wniosku.
• Etyka: Kandydaci ubiegający się o certyfikat muszą zgodzić się na przestrzeganie Standardów etycznego postępowania dla praktyków rachunkowości zarządczej i zarządzania finansami.
• Członkostwo: Kandydaci ubiegający się o certyfikat muszą być członkami IMA, ponieważ programy certyfikacyjne są przywilejem członkostwa.
Programy CMA i CFM zostały zaprojektowane tak, aby sprostać zmieniającym się potrzebom biznesu i koncentrują się na dynamicznych rolach, jakie księgowi zarządczy i kierownicy finansowi odgrywają w rachunkowości biznesowej, publicznej i rządowej. Certyfikowani specjaliści są częściej identyfikowani do awansu i mają większy potencjał zarobkowy niż specjaliści, którzy nie są certyfikowani.
Oznaczenie certyfikowanego księgowego (CPA) jest przyznawane przez państwo lub jurysdykcję osobom fizycznym w celu wykonywania zawodu licencjonowanego księgowego. Licencjonowanie księgowych chroni społeczeństwo przed niekompetentnymi osobami wykonującymi prace księgowe poniżej standardów. W Stanach Zjednoczonych istnieje pięćdziesiąt cztery stany lub jurysdykcje z prawami i regulacjami dotyczącymi wymagań i obowiązków licencjonowanych księgowych. W 1896 r. stan Nowy Jork uchwalił pierwsze prawo księgowe w celu sprawdzenia kwalifikacji księgowych. Doprowadziło to do wydania państwowej licencji na wykonywanie zawodu księgowego i powstania księgowości jako zawodu z wymogami licencyjnymi, standardami zawodowymi i kodeksem etyki zawodowej. Inne stany poszły w tym samym kierunku i ostatecznie wszystkie pięćdziesiąt cztery stany i jurysdykcje uchwaliły ustawodawstwo dotyczące rachunkowości publicznej. Rady księgowe każdej jurysdykcji są odpowiedzialne za licencjonowanie kandydatów i przestrzeganie stanowych przepisów dotyczących rachunkowości. Boards of Accountancy podejmują decyzje o przyznaniu licencji na podstawie trzech czynników: (1) spełnienia wymogu edukacyjnego, (2) zdania jednolitego egzaminu CPA i (3) posiadania określonej liczby lat doświadczenia zawodowego. Wymagania dotyczące wykształcenia i doświadczenia różnią się w pięćdziesięciu czterech jurysdykcjach. Wszystkie wymagają co najmniej tytułu licencjata; jednak większość jurysdykcji wymaga stu pięćdziesięciu semestrów godzin zajęć, zanim kandydat będzie mógł przystąpić do egzaminu CPA, który zwykle jest licencjatem, plus trzydzieści godzin zaawansowanych studiów. Wymagane lata doświadczenia różnią się w zależności od jurysdykcji od braku doświadczenia do dwóch lub trzech lat, w zależności od wykształcenia. Na przykład w Teksasie kandydaci planujący przystąpić do egzaminu muszą mieć sto pięćdziesiąt semestrów godzin zajęć i co najmniej rok doświadczenia w rachunkowości publicznej. Na Florydzie kandydaci od 1983 r. muszą ukończyć co najmniej sto pięćdziesiąt godzin zajęć, ale nie muszą mieć żadnego doświadczenia. Wszystkie jurysdykcje w Stanach Zjednoczonych wymagają od kandydatów na biegłych rewidentów zdania Jednolitego Egzaminu CPA, który jest przygotowywany przez Amerykański Instytut Biegłych Rewidentów (AICPA) i oceniany przez jego Doradczą Służbę Oceny. Celem egzaminu jest zapewnienie Radzie Rachunkowości uzasadnionego zapewnienia, że kandydaci, którzy zdadzą egzamin, posiadają poziom wiedzy technicznej, umiejętności i zdolności niezbędny do ochrony interesu publicznego. Obecny Jednolity Egzamin CPA to dwudniowy egzamin liniowy na papierze i ołówku z pytaniami w ustalonej kolejności, na które należy odpowiadać ręcznie na papierowych arkuszach odpowiedzi. Egzamin jest oferowany półrocznie w maju i listopadzie w środę i czwartek. Obecny egzamin obejmuje cztery sekcje: (1) Audyt; (2) Rachunkowość finansowa i sprawozdawczość; (3) Rachunkowość i sprawozdawczość - podatki, zarządzanie oraz organizacje rządowe i non-profit; oraz (4) Prawo handlowe i obowiązki zawodowe. Od maja 1996 r. egzamin jest niejawny, co oznacza, że kandydaci nie mogą już zatrzymać ani otrzymać swoich broszur z pytaniami po egzaminie ani ujawniać pytań z egzaminu w żaden sposób. Rada Egzaminatorów AICPA ponosi ogólną odpowiedzialność za przygotowanie do egzaminu i wydawanie ocen radom stanowym. Egzamin jest stale weryfikowany w celu utrzymania jego aktualności i odzwierciedlenia bieżącej praktyki. Przyszłe egzaminy będą egzaminami komputerowymi, co pozwoli na częstsze przeprowadzanie egzaminu i sprawdzenie rozszerzonego zakresu wiedzy i umiejętności, które ściśle odzwierciedlają bieżącą praktykę.
Ustawa Chief Financial Officer Act z 1990 r. (CFO Act) przewidywała ścisłą kontrolę finansową nad operacjami agencji i centralną koordynację funkcji zarządzania finansami w celu wsparcia efektywnej administracji władzy wykonawczej. Centralizuje ona organizację federalnego zarządzania finansami, wymaga długoterminowego planowania strategicznego w celu utrzymania modernizacji i rozpoczęła opracowywanie projektów w celu sporządzania audytowanych sprawozdań finansowych dla rządu federalnego. Jako Tytuł IV ustawy Government Management Reform Act z 1994 r., Federal Financial Management Act z 1994 r. rozszerzył zakres ustawy CFO, wymagając sprawozdań finansowych dla całej agencji i skonsolidowanego sprawozdania finansowego dla całego rządu.
UZASADNIENIE USTAWY CFO ACT
Pod koniec lat 80. stało się oczywiste, że systemy finansowe rządu federalnego były w opłakanym stanie. Kryzys kas oszczędnościowo-pożyczkowych rozwinął się niezauważony, w Departamencie Mieszkalnictwa i Rozwoju Miast doszło do skandali finansowych, zidentyfikowano wiele programów wysokiego ryzyka, a powszechnie występowały poważne niedociągnięcia w systemach kontroli wewnętrznej. Systemy zarządzania finansami były przestarzałe i nieefektywne. Zarządzanie, finansowanie programów i działania generujące dochody były upośledzone. Setki oddzielnych systemów księgowych utrudniały monitorowanie, porównywanie i audyt. Ogromne inwestycje w modernizację systemów finansowych nie przynosiły korzyści z integracji, ponieważ brakowało planowania i koordynacji. Żaden urzędnik ani agencja federalna nie miała ustawowej odpowiedzialności za koordynację praktyk zarządzania finansami federalnymi. Kongres był zaniepokojony tym, że funkcje zarządzania i innowacje są zaniedbywane w wyniku zaabsorbowania budżetu przez Biuro Zarządzania i Budżetu (OMB). W 1990 r. przyjęto ustawę CFO Act w celu poprawy ogólnych i finansowych praktyk zarządzania rządu federalnego poprzez ustanowienie struktury centralnej koordynacji zarządzania finansami. Ustawa przewidywała wdrożenie systemów księgowych i kontroli wewnętrznej w celu uzyskania wiarygodnych informacji finansowych i powstrzymania marnotrawstwa, oszustw i nadużyć. Ponadto ustawa wymagała szerokich zmian w raportowaniu w celu poprawy informacji dostępnych dla administratorów i Kongresu.
WYMAGANIA USTAWY CFO I JEJ ROZSZERZENIE Z 1994 R.
Ustawa CFO zmieniła federalne zarządzanie finansami na trzy sposoby: stworzyła nową strukturę organizacyjną zarządzania finansami, zachęciła do opracowywania nowych i kompatybilnych systemów księgowych i wymagała nowych form raportowania. W ustawie CFO wprowadzono trzy podstawowe zmiany w strukturze organizacyjnej w celu zapewnienia centralnej koordynacji zarządzania finansami. Ponadto utworzono radę koordynacyjną. Po pierwsze, w celu zwiększenia priorytetów zarządzania i centralizacji podstawowej odpowiedzialności, ustawa przewidywała ustawowe mianowanie przez prezesa zastępcy dyrektora ds. zarządzania, który będzie podlegał bezpośrednio dyrektorowi OMB. Ta osoba, jeden z dwóch zastępców dyrektora w OMB, jest dyrektorem finansowym Stanów Zjednoczonych odpowiedzialnym za ogólne zarządzanie i politykę zarządzania finansami. Jego lub jej obowiązki obejmują kierowanie ulepszeniami w systemach finansowych w całym rządzie, monitorowanie jakości personelu zarządzania finansami i pracę nad zapewnieniem, że władza wykonawcza ma strukturę finansową zdolną do wytwarzania wysokiej jakości informacji finansowych. Drugim elementem reformy organizacyjnej było utworzenie w OMB Biura Zarządzania Finansami Federalnymi pod kontrolą zastępcy dyrektora ds. zarządzania. Kontroler, który działa głównie w obszarze zarządzania finansami, kieruje tym biurem i pełni funkcję głównego doradcy zastępcy dyrektora ds. zarządzania. Ostatnim elementem reformy organizacyjnej było wyznaczenie dyrektorów finansowych i zastępców dyrektorów finansowych dla czternastu departamentów gabinetu i ośmiu głównych agencji władzy wykonawczej. Rachunkowość, budżetowanie i działalność finansowa zostały skonsolidowane pod dyrektorami finansowymi agencji, którzy podlegają bezpośrednio szefom agencji. Stanowiska te zostały utworzone w celu wspierania jednolitości organizacyjnej w operacjach zarządzania i ułatwienia koordynacji zarządzania finansami federalnymi. Ponadto utworzono radę głównych dyrektorów finansowych w celu koordynowania ulepszeń w zarządzaniu finansami federalnymi między agencjami. Zgodnie z ustawą CFO zastępca dyrektora ds. zarządzania ponosi ogólną odpowiedzialność za rozwój systemów zarządzania, w tym systemów pomiaru wydajności. Każdy dyrektor finansowy agencji ma szczególną odpowiedzialność za rozwój i utrzymanie zintegrowanych systemów zarządzania finansami. Obowiązki te obejmują kierowanie projektowaniem systemów zarządzania finansami agencji i projektów udoskonalających, a także nadzorowanie systemów zarządzania aktywami, które obejmują zarządzanie gotówką, windykację należności oraz zarządzanie zapasami i kontrolę. Tworząc nowe systemy zarządzania finansami, głównym celem było opracowanie kompleksowych systemów zarządzania finansami, które integrowałyby rachunkowość agencji, informacje finansowe i systemy zarządzania finansami. Priorytety obejmują eliminację duplikatów systemów i ustanowienie silnych kontroli wewnętrznych. W odniesieniu do systemów księgowych wymagana była zgodność z obowiązującymi zasadami i standardami księgowymi. Zintegrowane systemy były potrzebne do wspierania produkcji sprawozdań finansowych i generowania wysokiej jakości informacji finansowych na potrzeby różnych celów decyzyjnych. Aby zachęcić do dostępności wystarczających zasobów do odpowiedniego wsparcia systemów finansowych, zastępca dyrektora ds. zarządzania był zobowiązany do przeglądania i monitorowania budżetów agencji dla systemów finansowych oraz do oceny adekwatności personelu agencji. Biuro Federalnego Zarządzania Finansami było finansowane w ramach oddzielnej i odrębnej pozycji budżetowej. Dyrektorzy finansowi agencji otrzymali odpowiedzialność budżetową za funkcje zarządzania finansami. Federal Financial Management Act przewidział konkretne usprawnienia w zarządzaniu finansami. Aby obniżyć koszty wypłat, wymagał on korzystania z przelewów elektronicznych przy dokonywaniu wypłat wynagrodzeń, pensji i emerytur. Aby zachęcić do windykacji należności, przewidywał, że agencje mogą zatrzymać pewien procent zaległych długów. Aby promować rynki wewnętrzne i konkurencję, ustanowił cztery fundusze franczyzowe na zasadzie pilotażowej. Aby ograniczyć duplikację, upoważnił dyrektora OMB do konsolidacji i usprawnienia procesów raportowania zarządczego. CFO Act zmienił raportowanie poprzez wprowadzenie pięcioletnich raportów planowania strategicznego, sporządzania sprawozdań finansowych i wydawania rocznych raportów zarządczych. Dyrektor OMB był zobowiązany do opracowywania i corocznego rewidowania planów rządowych z pięcioletnim horyzontem w celu ulepszenia rządowych systemów zarządzania finansami. Raport dyrektora jest poparty raportami agencji, które identyfikują zmiany niezbędne do osiągnięcia nowoczesnych, zintegrowanych systemów finansowych. Celowe planowanie długoterminowe ma na celu ograniczenie rozprzestrzeniania się unikalnych systemów i zapewnienie wspólnych elementów niezbędnych do centralnego raportowania. Pięcioletnie plany poprawy zarządzania finansami obejmują szczegóły dotyczące rodzaju i formy informacji, które mają być produkowane: rodzaje projektów proponowanych w celu zintegrowania systemów, sprzętu i potrzeb kadrowych oraz koszty wdrożenia. Zgodnie z ustawą CFO Act wszystkie objęte nią departamenty i agencje są zobowiązane do przygotowywania rocznych sprawozdań finansowych dla funduszy powierniczych, funduszy obrotowych i działalności komercyjnej. Projekt pilotażowy przewidywał przygotowanie sprawozdań obejmujących całą agencję w sześciu agencjach. Przyjęto stopniowe podejście pilotażowe w odniesieniu do produkcji sprawozdań finansowych obejmujących całą agencję, ponieważ federalne standardy rachunkowości były niewystarczające. Federal Accounting Standards Advisory Board (FASAB) została powołana miesiąc przed uchwaleniem ustawy CFO Act. Produkcja sprawozdań finansowych obejmujących całą agencję i skonsolidowanego sprawozdania finansowego obejmującego cały rząd dla władzy wykonawczej miała na celu wzmocnienie odpowiedzialności i dostarczenie informacji potrzebnych do skutecznego zarządzania, w tym oceny wyników. Na przykład sprawozdania finansowe zawierają informacje o sposobach wydatkowania budżetowanych środków, proporcji zebranych podatków i innych należności, stanie aktywów rzeczowych i zakresie zobowiązań finansowych związanych z różnymi zobowiązaniami. Zgodnie z ustawą CFO, dyrektor OMB jest zobowiązany do składania Kongresowi rocznego raportu z zarządzania finansami. Raport ten analizuje stan zarządzania finansami w organie wykonawczym; podsumowuje sprawozdania finansowe agencji, audyty i raporty z audytów; oraz przegląda raporty dotyczące wewnętrznej rachunkowości i kontroli administracyjnej. Ponadto korporacje rządowe są zobowiązane do składania rocznego raportu z zarządzania oprócz sprawozdań finansowych, które muszą zawierać oświadczenie dotyczące wewnętrznej rachunkowości i kontroli administracyjnej. Raporty z zarządzania muszą zawierać plany korygowania słabości kontroli wewnętrznej.
ODPOWIEDZIALNOŚĆ AUDYTORÓW
Federal Financial Management Act wymagał sporządzania i audytu sprawozdań finansowych obejmujących całą agencję, obejmujących wszystkie konta i działania dwudziestu trzech agencji objętych CFO, a także skonsolidowanego sprawozdania finansowego obejmującego cały rząd dla organu wykonawczego jako całości. Ponadto ustawa stanowiła, że dyrektor OMB może wymagać audytowanych sprawozdań finansowych składników agencji, takich jak departamenty armii, sił powietrznych i marynarki wojennej. Wszystkie sprawozdania finansowe sporządzone na podstawie ustawy CFO i federalnego zarządzania finansami muszą zostać zbadane zgodnie z powszechnie przyjętymi standardami audytu rządowego. Inspektor generalny agencji ustala, kto przeprowadza audyt. W przypadku braku inspektora generalnego, decyzję tę podejmuje szef agencji. Inspektor generalny, firmy księgowe (CPA) lub inne uprawnione strony mogą przeprowadzać audyty. Ponadto, kontroler generalny może przeprowadzić audyt według własnego uznania lub na wniosek Kongresu. Federal
Financial Management Act określa, że kontroler generalny jest odpowiedzialny za audyt skonsolidowanych sprawozdań finansowych rządu władzy wykonawczej. Szczególne przepisy mają zastosowanie do audytu korporacji rządowych. CFO Act zastąpiło wymóg, aby te korporacje były audytowane co najmniej raz na trzy lata przez kontrolera generalnego, wymogiem corocznych audytów. Korporacji przypisano odpowiedzialność za zorganizowanie audytu, a kontroler generalny zachował uprawnienia do przeglądania audytów sprawozdań finansowych przeprowadzanych przez inne osoby.
Cykle ekonomiczne, powszechnie nazywane cyklami koniunkturalnymi, to powtarzające się rozszerzanie i kurczenie się gospodarki narodowej. Jest to zjawisko, które jest unikalne dla prywatnego lub wolnego systemu gospodarczego, zwanego również gospodarką kapitalistyczną. Inne systemy doświadczają niektórych z tych samych cech gospodarki wolnego przedsiębiorstwa; jednak cykle koniunkturalne w gospodarce kapitalistycznej są przedmiotem uwagi w tej dyskusji. Osobą, która jest najbardziej znana z badań nad cyklem koniunkturalnym, jest Wesley Mitchell. Zdefiniował on cykl koniunkturalny w następujący sposób:
Cykle koniunkturalne to rodzaj wahań występujących w łącznej aktywności gospodarczej narodów, które organizują swoją pracę głównie w przedsiębiorstwach; cykl składa się z ekspansji występujących mniej więcej w tym samym czasie w wielu działaniach gospodarczych, po których następują podobne ogólne recesje, recesje i ożywienia, które łączą się z fazą ekspansji następnego cyklu; ta sekwencja zmian jest powtarzalna, ale nie okresowa; cykle koniunkturalne trwają od ponad roku do dziesięciu lub dwunastu lat; nie są one podzielne na krótsze cykle o podobnym charakterze, których amplitudy są zbliżone do ich własnych.
Ta definicja ilustruje pogląd Mitchella, że cykle koniunkturalne/gospodarcze występują w przedsiębiorstwach prywatnych, ale nie w innych systemach. Podkreślił on również, że cykle koniunkturalne nie są unikalne dla pojedynczej firmy lub branży; wpływają na całą gospodarkę. Chociaż wszystkie cykle podążają za tym samym podstawowym wzorcem, różnią się pod wieloma względami, takimi jak długotrwałość i surowość. Mitchell wskazuje również, że cykl gospodarczy może trwać od jednego do dwunastu lat.
ZROZUMIENIE CYKLU KONKURENCYJNEGO
Cykle koniunkturalne/gospodarcze przechodzą przez wzrosty i spadki, osiągając szczyty i dołki. Aby zacząć myśleć o cyklu, pomyśl o dołku lub niskiej płaskiej części cyklu, która przesuwa się do szczytu, a następnie do dołka końcowego. Aby określić i wyizolować konkretny cykl, konieczne jest określenie dat początkowego dołka i dołka końcowego. Większość cykli mierzy się od cyklu do cyklu, bez względu na ich długość i wielkość.
Podziały cyklu .Każdy cykl biznesowy/gospodarczy przechodzi przez podziały. Okres od początkowego dna do szczytu nazywany jest ekspansją. Okres spadku cyklu nazywany jest kontrakcją. W okresie ekspansji występują dwie fazy, które nazywane są ożywieniem i dobrobytem. Po osiągnięciu przez cykl szczytu i rozpoczęciu kontrakcji cykl przechodzi przez kryzys i depresję. Innym terminem używanym na określenie łagodnej depresji jest recesja. Cykl biznesowy jest często dzielony na dziewięć etapów. Etap I jest skoncentrowany w czasie początkowego dna; Etap V jest w czasie szczytu; a Etap IX jest skoncentrowany w dołku końcowym. Etapy od II do IV są równo podzielone na trzy części w okresie ekspansji, a etapy od VI do VIII są równo podzielone na trzy części w okresie kontrakcji. Podziały te są tworzone, aby ekonomiści mogli łatwiej analizować okresy dat i godzin dla cykli.
Terminologia cykli .Istnieje znaczna terminologia związana z cyklami biznesowymi/gospodarczymi, terminy takie jak ekspansja, kontrakcja, depresja, recesja i inne. Aby lepiej zrozumieć cykle koniunkturalne, istotne jest zrozumienie terminologii.
Ekspansja: Kiedy gospodarka rośnie, a firmy ogólnie dobrze prosperują, okres ten nazywa się ekspansją. Istnieje kilka sposobów mierzenia wzrostu gospodarczego. Jednym ze sposobów jest produkt krajowy brutto (PKB), który jest całkowitą wartością wszystkich dóbr i usług wyprodukowanych w kraju w określonym okresie czasu, takim jak miesiąc, kwartał lub rok. Jeśli produkcja rośnie, jest to wskaźnik, że gospodarka rośnie. Innym miernikiem ekspansji gospodarczej jest dochód osobisty. Jeśli pracownicy mają rosnące dochody, oznacza to, że gospodarka rośnie i pracownicy mogą zarabiać więcej. Podobnie, jeśli stopy bezrobocia spadają lub pozostają niskie, oznacza to, że osoby chcące pracować znajdują pracę, a gospodarka się rozwija. Jedną z obaw jest to, że gospodarka będzie się rozwijać zbyt szybko, co doprowadzi do inflacji.
Inflacja: Najprościej rzecz ujmując, inflacja oznacza, że w gospodarce jest zbyt dużo pieniędzy, a za mało towarów i usług do kupienia. Inflacja to ogólny wzrost cen towarów i usług. W ekonomii odnosi się to do podaży i popytu. Jeśli konsumenci mają duże zapotrzebowanie na dobra i usługi, ale podaż tych dóbr i usług nie wzrasta, aby sprostać popytowi, producenci mogą podnieść ceny, a konsumenci nadal będą skłonni kupować dobra i usługi po wyższych cenach. Istnieje znaczna konkurencja o ograniczone zasoby. Inflację mierzy się za pomocą wskaźnika cen konsumpcyjnych (CPI). CPI to koszyk rynkowy dóbr i usług, które konsumenci regularnie kupują. Wraz ze wzrostem cen tych dóbr i usług, rośnie również wskaźnik cen konsumpcyjnych i wszystkie ceny w ogóle. To wyjaśnia, dlaczego buty, które w zeszłym roku kosztowały 50 USD, teraz kosztują 55 USD.
Redukcja: Gospodarka osiągnie punkt, w którym ekspansja najpierw zwolni, a następnie się zatrzyma. Może wystąpić okres stagnacji, w którym nie ma wzrostu lub nawet następuje spadek aktywności gospodarczej. Po tym okresie zwykle następuje spadek gospodarczy lub recesja. Jest to wynik spowolnienia aktywności gospodarczej, mniejszych wydatków, wzrostu bezrobocia oraz spadku lub stabilizacji płac i pensji.
Recesja: Jeśli występują dwa kolejne kwartały spadku aktywności gospodarczej mierzonej spadkiem PKB, mówi się, że gospodarka znajduje się w recesji. Podczas recesji ceny spadają, konsumenci nie kupują tak wielu produktów (zwłaszcza tych o wysokiej cenie), a przedsiębiorstwa zaczynają upadać. Recesja ma poważne konsekwencje dla gospodarki, uwydatnione przez wysokie bezrobocie i ogólny spadek poziomu życia. Kiedy zaczyna pojawiać się strach przed recesją, rząd federalny wkłada znaczne wysiłki w zmianę kierunku działań. Działania te zostaną omówione później.
Depresja: Depresja to bardzo poważna recesja. Podręczniki historyczne mówią o Wielkim Kryzysie lat 30. w Stanach Zjednoczonych, jednym z najpoważniejszych w historii gospodarki USA i świata. Depresje charakteryzują się ekstremalnie wysokim bezrobociem, niskim wiekiem, upadkami przedsiębiorstw z powodu małej ilości pieniędzy na zakup towarów i usług oraz przerażającym poziomem życia.
Deflacja: Przeciwieństwem inflacji jest deflacja, co oznacza, że ceny spadają. Wskaźnik CPI spada, ponieważ ceny towarów i usług, których używa się do jego pomiaru, generalnie spadają. Deflacja często następuje po inflacji, ale zwykle jest krótsza i ma mniejszą skalę.
Stagnacja: Stabilność wzrostu jest celem systemu przedsiębiorstw prywatnych. Oznacza to, że nie ma drastycznych zmian cen, a gospodarka rozwija się w akceptowalnym tempie. Jednak stabilność może prowadzić do stagnacji, czasu, w którym panuje zbyt wiele samozadowolenia, co z kolei prowadzi do spadku rozwoju nowych produktów i marketingu. Jeśli tak się stanie, konsumenci stają się niezadowoleni z tego, co jest dostępne, a wydatki zwalniają, po czym następuje spadek gospodarki. Na przykład, jeśli konsumenci wydają pieniądze w stałym tempie i są skłonni płacić rozsądne ceny za towary i usługi, producenci nie czują potrzeby innowacji i wzrostu w nowych obszarach. Powoduje to stagnację, która prowadzi do spadku.
Stagflacja: Termin stagflacja jest czasami używany do opisania sytuacji, w której występuje powolny lub zerowy wzrost realnej produkcji, istnieje wysoka inflacja, a bezrobocie jest wyższe niż zwykle. Sytuacja ta zwykle zaczyna się od wzrostu cen w okresach, gdy produkcja spada. Z powodu spadku produkcji wzrasta również bezrobocie. Wszystkie trzy te czynniki łącznie powodują stagflację - stagnację produkcji i zatrudnienia wraz ze wzrostem inflacji.
PERSPEKTYWA HISTORYCZNA
Gospodarki Stanów Zjednoczonych i świata generalnie przeszły przez liczne cykle ekonomiczne. Ta dyskusja nie będzie obszerna, ale raczej przeglądem, aby pokazać skutki i relacje gospodarki i cykli biznesowych.
Pierwszy cykl. Po zakończeniu wojny o niepodległość Stanów Zjednoczonych w 1783 r. gospodarka USA doświadczyła szybkiego rozwoju i wzrostu. Był to okres, w którym populacja szybko rosła, a ekspansja na Zachód miała miejsce. Mimo że procesy produkcyjne i rolnicze były prymitywne według dzisiejszych standardów, kraj był pełen nowych działań. Pojawiły się nowe rynki zbytu dla towarów i usług, a możliwości handlowe zostały zwiększone. Ten nowy wzrost i ekspansja trwały do początku wojny secesyjnej.
Drugi cykl. Szybki wzrost aktywności gospodarczej trwał w okresie od początku wojny secesyjnej do początku I wojny światowej. Było to spowodowane częściowo stałym wzrostem liczby ludności, a imigranci przybywali do Stanów Zjednoczonych praktycznie codziennie. W tym czasie produkcja stała się bardziej dominująca i zastąpiła rolnictwo jako główny przemysł. Na początku tego okresu około 30 procent produkcji w Stanach Zjednoczonych pochodziło z rolnictwa; a pod koniec okresu spadło do około 20 procent. Jednak ten okres nie obył się bez niepowodzeń. W 1873 roku rozpoczęła się poważna depresja, która trwała do połowy 1879 roku. Depresja ta była wynikiem paniki finansowej, która spowodowała, że banki zażądały spłaty wielu swoich pożyczek. Bardzo niewiele banków upadło, ale w wyniku paniki wiele przedsiębiorstw zostało dotkniętych i upadło
Trzeci cykl Trzeci cykl aktywności gospodarczej rozpoczął się w 1914 roku i trwał do 1950 roku. Okres ten był jednym z głównych wahań gospodarczych. Po I wojnie światowej popyt na towary i usługi był wysoki, więc gospodarka rozkwitła. Produkcja nadal kwitła i rosła, a mechanizacja w rolnictwie zwiększyła efektywność produkcji i zmniejszyła zapotrzebowanie na siłę roboczą. Ludzie, którzy byli robotnikami rolnymi, stali się robotnikami w sektorze wytwórczym, szczególnie po wprowadzeniu ciągnika napędzanego benzyną. W 1929 roku zaczęły pojawiać się oznaki kłopotów gospodarczych. Giełda została poważnie dotknięta, ponieważ inwestorzy pożyczali duże kwoty pieniędzy na zakup akcji. Pod koniec października krach na giełdzie miał głęboki wpływ na całą działalność gospodarczą. Aktywność gospodarcza nadal spadała do 1932 r. Był to Wielki Kryzys - ogólnoświatowy kryzys. W 1933 r. rozpoczęło się ożywienie, które trwało do 1937 r. Ponownie nastąpił spadek aktywności gospodarczej i recesja, która trwała do końca 1938 r. Stany Zjednoczone przystąpiły do II wojny światowej w grudniu 1941 r. Z powodu działań wojennych popyt na towary i usługi wzrósł dramatycznie, poziom zatrudnienia wzrósł, a konsumenci mieli więcej pieniędzy do wydania. Gospodarka była w trakcie poprawy, ale rosła zbyt szybko, co wywołało obawy o inflację. Obawy te spowodowały, że rząd ustalił pułapy cenowe na niektóre produkty i racjonował inne. Po wojnie kraj przeszedł z produkcji wojennej na produkcję pokojową, co spowodowało spowolnienie wielu gałęzi przemysłu; ale gospodarka nadal rosła.
Czwarty cykl Okres ten, który rozpoczął się w 1950 r., charakteryzował się wieloma cyklami gospodarczymi. Pierwsze dwadzieścia lat tego okresu przyniosło zadowalający wzrost gospodarczy. Konflikt koreański i wojna w Wietnamie miały duży wpływ na gospodarkę. W gospodarce wystąpiły pewne spadki, ale były one minimalne. Miały one miejsce w latach 1953, 1957 i 1960. W tym okresie bezrobocie stawało się problemem, ponieważ popyt na niewykwalifikowaną siłę roboczą malał, a siła robocza rosła w tempie szybszym niż popyt na pracowników. W ostatnich latach gospodarka rosła i prosperowała. Nastąpiło przejście na gospodarkę usługową, co w dużej mierze wynikało z szybkich zmian w technologii. W tym ostatnim cyklu miały miejsce recesje, które były stosunkowo krótkie, ale spowodowały trudności dla niektórych sektorów biznesu. Okres recesji trwał od 1973 do 1975 r., w 1980 r. i ponownie pod koniec 1981 r. Inflacja była poważnym problemem w 1981 r., a ożywienie nie rozpoczęło się ponownie aż do końca 1982 r. Następnie, pod koniec 1987 r., krach na giełdzie spowodował problemy dla wielu firm i inwestorów. Oprócz tych wydarzeń miało miejsce kilka mniejszych cykli.
WNIOSEK
Ten przegląd cykli biznesowych/gospodarczych dostarczył pewnego wglądu w przyczynę zmian w gospodarce USA, podkreślając terminologię, którą należy zrozumieć. Rola rządu USA w kontrolowaniu zmian w aktywności gospodarczej nie mogła być omawiana ze względu na długość.
Ziemia, praca, kapitał i przedsiębiorczość: Są to cztery powszechnie uznawane czynniki produkcji. Oczywiście, w dosłownym sensie wszystko, co przyczynia się do procesu produkcyjnego, jest czynnikiem produkcji. Jednak ekonomiści starają się klasyfikować wszystkie nakłady do kilku szerokich kategorii, więc standardowe użycie odnosi się do samych kategorii jako czynników. Przed XX wiekiem rozpoznawano tylko trzy czynniki tworzące "klasyczną triadę": ziemię, pracę i kapitał. Przedsiębiorczość jest dość niedawnym dodatkiem. Koncepcja czynnika jest używana do konstruowania modeli ilustrujących ogólne cechy procesu gospodarczego bez zagłębiania się w nieistotne szczegóły. Obejmują one modele mające na celu wyjaśnienie wzrostu, wartości, wyboru metody produkcji, dystrybucji dochodów i klas społecznych. Główne zastosowanie koncepcyjne znajduje się w teorii funkcji produkcji. Jedną intuicyjną podstawą klasyfikacji czynników produkcji jest sposób zapłaty za ich usługi: czynsz za ziemię, płaca za pracę, odsetki za kapitał i zysk za przedsiębiorczość. Poniżej omówiono każdy z czynników.
ZIEMIA
Ta kategoria czasami obejmuje wszystkie zasoby naturalne. Ma ona na celu przedstawienie wkładu w produkcję zasobów nieludzkich w ich pierwotnej, nieulepszonej formie. Dla francuskich fizjokratów pod przewodnictwem Francois Quesnaya w latach 1750. i 1760. ziemia była jedynym czynnikiem przynoszącym jej właścicielowi pewny zysk. Ich zdaniem robotnicy i rzemieślnicy byli bezsilni i mieli nadwyżki, dlatego też zarabiali średnio tylko na poziomie utrzymania; w ten sam sposób to, co produkowali poza rolnictwem, wystarczało na pokrycie jedynie ich wynagrodzeń i kosztów nakładów bez marży zysku. Tylko w rolnictwie, ze względu na żyzność gleby i inne "dary natury", robotnik mógł wyraźnie wyprodukować więcej niż było to wymagane do pokrycia kosztów utrzymania i innych kosztów, więc tylko w rolnictwie właściciele mogli zbierać nadwyżki. Tak więc fizjokraci wyjaśnili rentę gruntową jako pochodzącą z nadwyżek wytworzonych przez ziemię. Zalecali podatki od ziemi jako jedyny rozsądny sposób na zwiększenie dochodów, a grabież ziemi jako najlepszy sposób na zwiększenie bazy dochodów rządu. W 1821 roku David Ricardo w The Principles of Political Economy and Taxation przedstawił to, co stało się znane jako klasyczny pogląd: że renta odzwierciedla niedobór dobrej ziemi. Wartość plonu zależy od pracy wymaganej do jego wyprodukowania na najgorszej ziemi uprawnej. Ta najgorsza ziemia nie przynosi renty - dopóki część z niej pozostaje niewykorzystana - a renta pobierana z lepszej ziemi jest po prostu jej plonem przekraczającym plon z najgorszej ziemi. Ricardo uważał, że renta pochodzi z różnic w jakości ziemi (w tym dostępności) i niedoborze. Klasyczni ekonomiści zakładali, że tylko ziemia - rozumiana jako zasoby naturalne - może być rzadka w dłuższej perspektywie. Marginalizm, jak wyjaśnił w 1899 roku John Bates Clark w The Distribution of Wealth, przyjmuje inne podejście. Twierdzi, że renta odzwierciedla krańcową produktywność ziemi - nie, jak u Ricardo, produktywność dobrej ziemi w porównaniu z ziemią krańcową. Krańcowa produktywność to dodatkowa produkcja uzyskana przez rozciągnięcie stałej ilości pracy i kapitału na dodatkową jednostkę ziemi o jednolitej jakości. Marginaliści twierdzili, że każdy czynnik produkcji może być rzadki. Ich teoria opiera się na możliwości substytucji między czynnikami w celu zaprojektowania alternatywnych metod produkcji, w której optymalna metoda produkcji przydziela wszystkie czynniki w celu wyrównania ich krańcowej produktywności z ich krańcowymi kosztami. Ziemia, od dawna uważana za samowystarczalny wkład, może tracić na wartości tak samo jak aktywa wytworzone. W 1989 roku Herman Daly i Jonathan Cobb w książce For the Common Good rozróżnili zasoby nieodnawialne, które są zużywane lub tracą na wartości bezpowrotnie, oraz zasoby odnawialne, w przypadku których ważne jest tempo naturalnego odnawiania. Jedną z konsekwencji tej pracy w ekonomii środowiska jest to, że rachunkowość zasobów naturalnych coraz bardziej przypomina rachunkowość kapitału.
PRACA
Klasyczna "teoria wartości pracy" była innowacyjną teorią w odpowiedzi na fizjokratyczną doktrynę, że tylko ziemia może przynieść nadwyżkę. W 1776 roku Adam Smith w Bogactwie narodów zauważył, że wraz z rozwojem produkcji i handlu przedsiębiorstwa osiągały zyski przez długi czas, chociaż albo nie miały nic wspólnego z rolnictwem, albo były przedsiębiorstwami rolnymi. Klasyczni ekonomiści próbowali odpowiedzieć na pytanie: Skąd bierze się zysk? Ich odpowiedź brzmiała, że pochodzi z pracy. Przy obowiązujących cenach praca może przynieść nadwyżkę ponad koszty utrzymania w wielu branżach. Powstaje pytanie, dlaczego właściciele, a nie robotnicy, zarabiają na zysku. Ricardo doszedł do jednej odpowiedzi: Innowacje techniczne zwiększają wydajność pracy. Właściciele innowacyjnego sprzętu, aż do jego powszechnego przyjęcia, otrzymują premię z obniżonych kosztów. W 1867 roku Karl Marx w Kapitale dodał, że płace odzwierciedlają koszty utrzymania, a nie to, co robotnicy mogą wyprodukować, a zysk jest różnicą między nimi. Nawet bez innowacji właściciele zbieraliby nadwyżki, twierdził Marks, ponieważ robotnicy nie mają siły rynkowej i nie stać ich na własny sprzęt. Dlaczego płace różnią się w zależności od rodzaju pracy? Odpowiedź Marksa brzmiała, że wyższe płace pokrywają koszty, wykraczające poza osobiste utrzymanie, szkolenia i rozwoju umiejętności, uznając, że jeden rodzaj "sprzętu", znany obecnie jako kapitał ludzki, był dostępny przynajmniej dla niektórych robotników. Ekonomiści marginalistyczni zauważyli, że postęp technologii, który według klasycznych i marksistowskich poglądów czynił pracę coraz bardziej produktywną, stale pozbawia robotników pracy. To doprowadziło ich do przypisywania produktywności sprzętowi, a nie tylko pracy. Odnosząc się do sprzętu jako do kapitału, opracowali funkcje produkcji, w których praca i kapitał byłyby dla siebie substytutami. Wybór spośród technik produkcji obejmujących różne kombinacje pracy i kapitału stał się głównym tematem w teorii wzrostu marginalistycznego.
KAPITAŁ
Ten najbardziej kontrowersyjny czynnik jest różnie definiowany jako wyprodukowany sprzęt; jako finanse wykorzystane do nabycia wyprodukowanego sprzętu; jako wszelkie finanse wykorzystane do rozpoczęcia i kontynuowania produkcji, w tym "fundusz płac"; i jako szacowana wartość całego przedsiębiorstwa produkcyjnego, w tym wartości niematerialne, takie jak "goodwill". W 1960 roku Piero Sraffa w swojej książce Production of Commodities by Means of Commodities wykazał, że kapitał w sensie wyprodukowanego sprzętu może nie zachowywać się zgodnie z oczekiwaniami w marginalistycznych funkcjach produkcji, gdy modelowana jest cała gospodarka. W szczególności sprzęt przyjęty w celu zastąpienia pracy po wzroście płac z niskiego poziomu w stosunku do odsetek od kapitału może zostać ponownie porzucony na rzecz pracy, gdy płace wzrosną jeszcze bardziej. To kontrintuicyjne "przełączanie" może mieć miejsce, ponieważ używany sprzęt jest sam w sobie produktem pracy i sprzętu, a stosunek pracy do sprzętu zmienia się w zależności od produktu. Często kapitał jest traktowany jako finanse, związane z wypłatą odsetek. Jednak związek z wyposażeniem, pomimo demonstracji Sraffy, nigdy nie został całkowicie zerwany. Nadal bada się amortyzację kapitału, odróżniając zużycie od zużycia i od wartości bieżącej inwestycji w kapitał. Coraz częściej teoria traktuje każdą inwestycję jako inwestycję kapitałową. Ponadto nabyte umiejętności (w przeciwieństwie do "know-how", atrybutu społeczeństwa, a nie jednostek) zaczęto postrzegać jako analogiczne do fizycznego wyposażenia, zdolnego do dawania swoim właścicielom zwrotu. Ta analogia sugeruje ich obecne określenie jako kapitału ludzkiego. Tak więc kapitał jest pojęciem wciąż pogrążonym w zamęcie i należy zachować ostrożność w jego stosowaniu, aby mieć pewność, co oznacza.
PRZEDSIĘBIORCZOŚĆ
Do XX wieku funkcja ta była przypisywana kapitaliście i często mylona z kapitałem. W klasycznym ujęciu, zysk, a nie odsetki, przypisywano własności kapitału. W ujęciu marginalistycznym kapitał przynosił odsetki, a zysk był jedynie pozostałością po zrekompensowaniu wszystkich czynników produkcji. W swojej Principles of Economics, opublikowanej po raz pierwszy w 1890 r., Alfred Marshall szeroko odwoływał się do "organizacji" i "zarządzania", odnosząc się do funkcji koordynacyjnej przedsiębiorczości, ale nie do podejmowania ryzyka ani innowacji. Jednak w 1912 r. Joseph Schumpeter w The Theory of Economic Development przedstawił rewolucyjną rolę organizatora i innowatora i przeciwstawił ją roli konserwatywnego finansisty, wyraźnie odróżniając w ten sposób przedsiębiorcę od kapitalisty. Rola przedsiębiorcy w tym ujęciu to nie tylko rola menedżera i osoby podejmującej ryzyko, ale także wizjonera - kogoś, kto dąży zarówno do zniszczenia starego porządku, jak i do stworzenia czegoś nowego. Ponieważ innowacja zwykle wymaga zniszczenia starych sposobów robienia rzeczy, Schumpeter nadał jej nazwę "twórczej destrukcji". Zysk przypisuje się teraz przedsiębiorczości, innowacji. Wraz ze wzrostem liczby "kapitalistów wysokiego ryzyka" i innych finansistów chętnych do podejmowania większego ryzyka i robienia więcej dla innowacji w nadziei na ponadprzeciętne zyski, rozróżnienie między kapitalistą a przedsiębiorcą znów stało się mniej wyraźne. Teraz są przedsiębiorczy finansiści, a także przedsiębiorczy producenci i dystrybutorzy. Chociaż w biznesie dywidendy akcyjne są rozdzielonymi zyskami, w analizie ekonomicznej są traktowane jako zwroty z kapitału, rodzaj płatności odsetkowej, ponieważ są zwrotem z finansów, a nie z przedsiębiorczości. Fakt, że akcje są prawnie kapitałem własnym, a nie akcjami dłużnymi, jest w ten sposób ignorowany. Podobnie, pensje dyrektorów wykonawczych korporacji są traktowane jako zysk, zwrot z przedsiębiorczości, a nie jako wynagrodzenie za usługi pracownicze.
Cena jest prawdopodobnie najważniejszym z czterech P marketingu, ponieważ tylko ona generuje przychody firmy. Cenę najprościej opisać jako kwotę pieniędzy płaconą za produkt lub usługę. Ustalając cenę produktu lub usługi, firma musi najpierw ocenić kilka czynników dotyczących jej potencjalnego wpływu. Często brane pod uwagę czynniki obejmują wytyczne prawne i regulacyjne, cele cenowe, strategie cenowe oraz opcje zwiększenia sprzedaży.
WYTYCZNE PRAWNE I REGULACYJNE
Pierwszym ważnym prawem wpływającym na cenę produktu firmy była ustawa antymonopolowa Shermana z 1890 roku, uchwalona przez Kongres w celu zapobiegania monopolizacji firmy. Monopol występuje, gdy jedna firma ma całkowitą kontrolę nad produkcją i dystrybucją produktu lub usługi. Będąc monopolistą, firma może pobierać wyższe niż normalnie ceny za swój produkt lub usługę, ponieważ nie istnieje znacząca konkurencja. Ustawa antymonopolowa Shermana upoważnia Biuro Prokuratora Generalnego Stanów Zjednoczonych do kwestionowania domniemanego monopolu i składania wniosków do sądów federalnych o podział spółki w celu promowania konkurencji. Przykładem skutecznego zastosowania przepisów Ustawy antymonopolowej Shermana było wykorzystanie jej przez Biuro Prokuratora Generalnego do podziału giganta telekomunikacyjnego AT&T w latach 80. XX wieku. W wyniku podziału AT&T powstało kilka nowych firm telekomunikacyjnych, takich jak MCI i Sprint. Powstanie tych i innych nowych firm telekomunikacyjnych w latach 80. XX wieku doprowadziło do bardziej konkurencyjnych cen usług telefonicznych. Innym istotnym aktem prawnym, który ma istotny wpływ na ustalanie cen, jest Ustawa Claytona z 1914 roku, uchwalona przez Kongres w celu zapobiegania praktykom takim jak dyskryminacja cenowa i wyłączność lub prawie wyłączność w transakcjach między kilkoma firmami. Podobnie jak Ustawa antymonopolowa Shermana, ustawa ta zapobiegała praktykom, które mogłyby ograniczyć konkurencję. Ustawa Robinsona-Patmana z 1936 roku, będąca formalnie rozszerzeniem Ustawy Claytona, zabrania również firmom sprzedaży swoich produktów po bezpodstawnie niskiej cenie w celu wyeliminowania konkurencji. Celem tej ustawy było zakazanie krajowym sieciom handlowym nieuczciwego stosowania rabatów ilościowych w celu wypychania mniejszych firm z rynku. Aby bronić się przed zarzutami naruszenia Ustawy Robinsona-Patmana, firma musiałaby udowodnić, że różnice cenowe wynikały z zasad wolnego rynku, a nie z próby ograniczenia lub wyeliminowania konkurencji. Ponieważ przepisy Ustawy Robinsona-Patmana nie mają zastosowania do produktów eksportowanych, firma może oferować produkty do sprzedaży po znacznie niższych cenach na rynkach zagranicznych niż na rynkach amerykańskich. Inny zbiór przepisów wpływających na cenę produktu firmy określa się mianem przepisów o nieuczciwym handlu. Uchwalone w latach 30. XX wieku przepisy te miały na celu ochronę rynków specjalnych, takich jak przemysł mleczarski, a ich głównym celem jest ustalenie minimalnych cen detalicznych produktu (np. mleka), dopuszczając niewielką marżę. Teoretycznie przepisy te miały chronić przedsiębiorstwa specjalistyczne przed większymi firmami, które mogłyby sprzedawać te same produkty poniżej kosztów i eliminować z rynku mniejsze, specjalistyczne sklepy. Przepisy dotyczące sprawiedliwego handlu to odrębny zbiór ustaw, uchwalonych przez wiele legislatur stanowych na początku lat 30. XX wieku. Przepisy te pozwalają producentowi ustalić cenę minimalną swojego produktu; w związku z tym detaliści podpisujący umowy cenowe z producentami są zobowiązani do podania minimalnej ceny, za którą produkt może być sprzedawany. Przepisy te uniemożliwiają zawieranie międzystanowych umów cenowych między producentami a detalistami, opierając się na przekonaniu, że sprzyjałoby to większej konkurencji, a w rezultacie niższym cenom. Ważnym aspektem tych przepisów jest to, że nie mają one zastosowania do cen produktów wewnątrzstanowych.
CELE CENOWE
Kluczowym elementem ogólnego planowania strategicznego firmy jest ustalenie celów cenowych dla sprzedawanych produktów. Firma ma do wyboru kilka celów cenowych, a wybrany cel zależy od celów i rodzaju oferowanych przez nią produktów. Cztery najczęściej stosowane cele cenowe to (1) konkurencyjność, (2) prestiż, (3) rentowność i (4) cena hurtowa. Konkurencyjne ceny. Koncepcja stojąca za tym często stosowanym celem cenowym polega po prostu na dopasowaniu ceny ustalonej przez lidera branży dla danego produktu. Ponieważ ta strategia minimalizuje różnicę w cenie, firma koncentruje swoje wysiłki na innych sposobach pozyskiwania nowych klientów. Przykładami działań, które firma może podjąć, aby pozyskać nowych klientów, są: produkcja wysokiej jakości i niezawodnych produktów, zapewnienie najwyższej jakości obsługi klienta i/lub angażowanie się w kreatywny marketing.
Ceny prestiżowe. Firma może zdecydować się na promocję, utrzymanie i poprawę wizerunku swojego produktu poprzez stosowanie cen prestiżowych, które polegają na ustalaniu wysokiej ceny produktu w celu ograniczenia jego dostępności dla konsumentów z wyższej półki. Ograniczona dostępność poprawia wizerunek produktu, sprawiając, że jest on postrzegany jako prestiżowy. Chociaż firma stosująca tę strategię spodziewa się ograniczonej sprzedaży, nie stanowi to problemu, ponieważ zysk jest nadal możliwy dzięki wyższej marży na każdym produkcie. Przykładami firm stosujących ceny prestiżowe są Mercedes-Benz i Rolls-Royce. Cennik oparty na rentowności Podstawową ideą cennika opartego na rentowności jest maksymalizacja zysku. Podstawowy wzór na ten cel jest taki, że zysk równy jest przychodom pomniejszonym o koszty (P = R - E). Przychody są określane przez cenę sprzedaży produktu i liczbę sprzedanych jednostek. Firma musi uważać, aby nie podnieść ceny produktu zbyt wysoko, w przeciwnym razie sprzedana ilość ulegnie zmniejszeniu, a całkowity zysk może być niższy niż oczekiwany. Dlatego firma stale monitoruje cenę swoich produktów, aby upewnić się, że jest ona konkurencyjna, a jednocześnie zapewnia akceptowalną marżę zysku. Cennik oparty na ilości Kiedy firma stosuje cel cenowy oparty na ilości, dąży do maksymalizacji sprzedaży w ramach z góry określonych wytycznych dotyczących zysku. Firma stosująca ten cel ustala cenę produktu niżej niż zwykle, ale spodziewa się zrekompensować różnicę wyższym wolumenem sprzedaży. Ceny hurtowe mogą być korzystne dla firmy, ponieważ jej produkty są kupowane na dużą skalę, a dystrybucja produktów na dużą skalę pomaga wzmocnić renomę firmy, a także zwiększyć lojalność klientów. Częścią cen hurtowych jest cel udziału w rynku, którego celem jest uzyskanie określonego procentu sprzedaży danego produktu. Firma może określić akceptowalną marżę zysku, uzyskując określony procent rynku przy określonej cenie produktu.
STRATEGIE CENOWE
Firmy mogą wybierać spośród różnych strategii cenowych, z których najpopularniejsze to penetracja, skimming i strategie konkurencyjne. Chociaż każda strategia ma na celu osiągnięcie innego celu, każda przyczynia się do zdolności firmy do generowania zysku.
Strategia cen penetracyjnych. Firma, która chce szybko zbudować udział w rynku i uzyskać zyski z powtarzalnej sprzedaży, zazwyczaj wybiera strategię cen penetracyjnych, która może być bardzo skuteczna, jeśli jest prawidłowo stosowana. Na przykład, firma może zapewnić konsumentom bezpłatne próbki produktu, a następnie zaoferować go po nieznacznie obniżonej cenie. Alternatywnie, firma może początkowo oferować znaczne rabaty, a następnie stopniowo je wycofywać, aż do momentu, gdy pełna cena produktu zostanie ogłoszona. Obie opcje pozwalają firmie wprowadzić nowy produkt i rozpocząć budowanie lojalności i uznania klientów. Idea polega na tym, że gdy konsumenci zapoznają się z nowym produktem i są z niego zadowoleni, zaczną regularnie kupować go po normalnej cenie detalicznej.
Strategia skimmingu cenowego. Strategia skimmingu cenowego wykorzystuje różne fazy cenowe w czasie, aby generować zyski. W pierwszej fazie firma wprowadza produkt na rynek i kieruje go do klientów, którzy są bardziej skłonni zapłacić wysoką cenę detaliczną. Marża zysku w tej fazie jest wyjątkowo wysoka i generuje oczywiście najwyższe przychody dla firmy. Ponieważ firma zdaje sobie sprawę, że w pierwszej fazie spenetrowano jedynie niewielki procent rynku, w drugiej fazie obniży cenę produktu. Cena w drugiej fazie będzie atrakcyjna dla szerszego grona klientów, co przełoży się na wzrost sprzedaży produktu. Gdy sprzedaż zacznie się stabilizować w tej fazie, firma obniży cenę jeszcze bardziej. Cena w trzeciej fazie powinna spodobać się tym konsumentom, którzy byli wrażliwi na cenę w pierwszych dwóch fazach, co przełoży się na wzrost sprzedaży. Firma powinna teraz objąć większość rynku, który jest skłonny kupić jej produkt w wysokim, średnim i niskim przedziale cenowym. Strategia "zbierania" cen stanowi doskonałą okazję dla firmy do maksymalizacji zysków od samego początku i powolnego obniżania ceny tylko wtedy, gdy jest to konieczne ze względu na zmniejszoną sprzedaż. Dostosowywanie cen za pomocą tej strategii ściśle podąża za cyklem życia produktu, czyli za tym, jak klienci akceptują nowy produkt. Oszukiwanie cenowe to często stosowana strategia, gdy trzeba maksymalizować przychody, aby pokryć wysokie koszty badań i rozwoju związanych z niektórymi produktami.
Konkurencyjna strategia cenowa. Konkurencyjne ceny to kolejna ważna strategia. Konkurenci firmy mogą podnosić lub obniżać ceny, w zależności od własnych celów. Zanim firma zareaguje na zmianę cen konkurencji, należy przeprowadzić dogłębną analizę przyczyn tej zmiany. Analiza podwyżek lub obniżek cen zazwyczaj prowadzi do jednej lub kilku z następujących przyczyn: wzrostu cen surowców, wyższych kosztów pracy, rosnących stawek podatkowych lub rosnącej inflacji. Aby utrzymać akceptowalną marżę zysku na danym produkcie, firma zazwyczaj podnosi cenę. Ponadto silny popyt konsumentów na dany produkt może spowodować niedobór, a tym samym pozwolić firmie podnieść cenę bez szkody dla popytu i zysków. Kiedy konkurent podnosi cenę, firma ma kilka opcji do wyboru. Pierwsza to podniesienie ceny do poziomu zbliżonego do ceny firmy konkurencyjnej. Druga to odczekanie przed podniesieniem ceny, strategia znana jako "price shadowing". "Price shadowing" pozwala firmie przyciągnąć nowych klientów - tych, którzy są wrażliwi na cenę - od firmy konkurencyjnej. Jeśli konsumenci w dużej liczbie zmienią taryfę, firma zrekompensuje utracone zyski poprzez zwiększenie wolumenu sprzedaży. Jeśli konsumenci nie zmienią taryfy po pewnym czasie, firma może podnieść cenę. Zazwyczaj firma podnosi cenę do poziomu nieznacznie niższego niż konkurencja, aby utrzymać przewagę taktyczną w postaci niższej ceny. Branża lotnicza często stosuje strategię cen konkurencyjnych. Kiedy konkurenci obniżają ceny, firma ma wiele możliwości. Pierwszą opcją jest utrzymanie ceny, ponieważ firma jest przekonana, że konsumenci są lojalni i cenią unikalne cechy jej produktu. W zależności od wrażliwości cenowej klientów na danym rynku, ta strategia może nie być odpowiednia dla firmy. Drugą opcją jest analiza przyczyn, dla których konkurent mógł obniżyć ceny. Jeśli obniżki cen wynikają z innowacji technologicznych, obniżka cen będzie prawdopodobnie konieczna, ponieważ obniżka cen konkurenta prawdopodobnie będzie trwała. Niezależnie od działań konkurenta, firma może obniżyć cenę. Ta opcja redukcji ceny nazywa się "pokryciem ceny". Opcja ta jest najbardziej przydatna, gdy firma dobrze odróżniła cechy swojego produktu od cech produktu konkurencji. Z drugiej strony, korzyści płynące z pokrycia ceny maleją, gdy nie widać żadnej zauważalnej różnicy między produktem danej firmy a produktem konkurencji.
OPCJE ZWIĘKSZENIA SPRZEDAŻY
Firmy mają do dyspozycji kilka opcji, aby zwiększyć sprzedaż produktu, w tym kupony, przedpłaty, cieniowanie cen, ceny sezonowe, ceny okresowe, ceny segmentowe i rabaty ilościowe.
Kupony. Prawie wszystkie firmy oferują kupony produktowe, odzwierciedlając ich liczne zalety. Po pierwsze, firma może chcieć wprowadzić nowy produkt, zwiększyć swój udział w rynku, zwiększyć sprzedaż dojrzałego produktu lub przywrócić do łask stary produkt. Po drugie, kupony mogą być wykorzystywane do pozyskiwania nowych klientów poprzez zachęcanie ich do zakupu i wypróbowania produktu firmy - w nadziei, że te próbne zakupy zaowocują ponownymi zakupami. Dostępnych jest wiele metod dystrybucji kuponów, takich jak niedzielne gazety i dozowniki w punktach sprzedaży.
Przedpłata. Plan przedpłaty jest zazwyczaj stosowany w przypadku klientów, którzy nie mają historii kredytowej lub mają słabą historię kredytową. Ta metoda przedpłaty zazwyczaj nie zapewnia klientom zniżki. Istnieją jednak metody przedpłaty, które obniżają cenę produktu. Na przykład strategia przedpłaty jest szeroko stosowana w branży wydawniczej. Klient, który zgadza się na zakup prenumeraty czasopisma na dłuższy okres, zazwyczaj otrzymuje zniżkę w porównaniu z ceną w kiosku. Zakup bonów upominkowych to kolejny przykład wykorzystania przedpłaty do promocji sprzedaży. Na przykład, firma może oferować zniżki na bon upominkowy, w ramach których nabywca może zapłacić jedynie 90-95% wartości nominalnej bonu. Strategia ta ma kilka zalet. Po pierwsze, konsumenci są zachęcani do zakupu w firmie oferującej bony upominkowe, a nie w innych sklepach. Po drugie, przychody są dostępne dla firmy do reinwestycji przed sprzedażą produktu. Po trzecie, odbiorcy nie zrealizują wszystkich bonów upominkowych, w rezultacie czego firma zatrzymuje cały przychód.
Cena cieniowana. Jednym ze sposobów na zwiększenie sprzedaży firmy jest umożliwienie sprzedawcom oferowania zniżek na cenę produktu. Ta taktyka, znana jako cena cieniowana, jest zazwyczaj stosowana w przypadku agresywnych nabywcówna rynkach przemysłowych, którzy kupują produkt regularnie i w dużych ilościach. Cieniowanie cen pozwala sprzedawcom oferować korzystniejsze warunki preferowanym nabywcom przemysłowym, aby zachęcić do ponownej sprzedaży.
Ceny sezonowe. Cenę produktu można również dostosować do sezonowego popytu. Ceny sezonowe pomagają w sprzedaży produktów, gdy są najmniej zbywalne, na przykład klimatyzatorów zimą i odśnieżarek wiosną. Zaletą cen sezonowych jest to, że cena produktu jest ustalana wysoko w okresach dużego popytu i obniżana, gdy popyt sezonowy spada, aby pozbyć się zapasów i zrobić miejsce na produkty z bieżącego sezonu.
Ceny okresowe. Firma stosuje inną strategię pozytywnego wzmocnienia przy ustalaniu ceny produktu. Na przykład, firma może zaoferować rabat, jeśli klient zapłaci za produkt terminowo. Definicja terminu różni się w zależności od polityki firmy, ale zazwyczaj oznacza to, że saldo konta musi zostać spłacone w całości w określonym czasie; w zamian firma może udzielić rabatu, aby zachęcić klienta do kontynuowania tego typu wcześniejszej płatności. Ta strategia cenowa jest zazwyczaj stosowana w przypadku dużych nabywców detalicznych lub przemysłowych, a nie w przypadku ogółu społeczeństwa. Czasami firma oferuje niewielki rabat klientom, którzy zapłacą za produkt gotówką.
Ceny segmentowe Ceny segmentowe to kolejna taktyka, którą firma może zastosować, aby zmodyfikować cenę produktu w celu zwiększenia sprzedaży. Typowymi przykładami rabatów segmentowych są te oferowane dzieciom, seniorom i studentom. Rabaty te niosą ze sobą szereg pozytywnych korzyści. Po pierwsze, firma sprawia wrażenie, że pomaga osobom, które są lub są postrzegane jako osoby w trudnej sytuacji ekonomicznej, co pomaga w budowaniu pozytywnego wizerunku firmy w relacjach z klientami. Po drugie, członkowie tych grup, którzy zazwyczaj nie kupują produktu, są zachęcani do jego zakupu. W rezultacie sprzedaż firmy wzrośnie, co prawdopodobnie przełoży się na wzrost udziału w rynku i przychodów.
Rabaty ilościowe. Powszechną metodą stosowaną przez firmy do ustalania ceny produktu są rabaty ilościowe. Idea tej strategii cenowej jest prosta - jeśli klient kupi dużą ilość produktu, produkt jest oferowany po niższej cenie. Ta taktyka pozwala firmie sprzedać duże ilości produktu z akceptowalną marżą zysku. Ceny ilościowe są również przydatne w budowaniu lojalności klientów.
PODSUMOWANIE
Cena jest ważnym elementem czterech P marketingu, ponieważ generuje przychody. Cena jest często rozumiana jako kwota, jaką płaci się za produkt lub usługę. Ustalając cenę produktu, należy wziąć pod uwagę kilka czynników. Często analizowane są wytyczne prawne i regulacyjne, cele cenowe, strategie cenowe oraz opcje zwiększenia sprzedaży, ponieważ wszystkie te czynniki wpływają na ustaloną cenę produktu.
Klasyfikacja dóbr - produktów fizycznych - jest niezbędna dla biznesu, ponieważ stanowi podstawę do określania strategii potrzebnych do ich wprowadzenia do systemu marketingowego. Dwiema głównymi formami klasyfikacji są dobra konsumpcyjne i dobra przemysłowe
DOBRA KONSUMPCYJNE
Dobra konsumpcyjne to dobra kupowane w sklepach detalicznych do użytku osobistego, rodzinnego lub domowego. Są one podzielone na trzy podkategorie na podstawie nawyków zakupowych konsumentów: dobra wygodne, dobra zakupowe i dobra specjalistyczne. Dobra konsumpcyjne można również różnicować na podstawie trwałości. Dobra trwałe to produkty o długiej żywotności, takie jak meble i narzędzia ogrodowe. Dobra nietrwałe to takie, które szybko się zużywają, zużywają lub stają się przestarzałe, takie jak żywność, artykuły szkolne i aparaty jednorazowego użytku.
Dobra wygodne
Towar to przedmioty, które kupujący chcą kupić z jak najmniejszym wysiłkiem, czyli tak wygodnie, jak to możliwe. Większość z nich to dobra nietrwałe o niskiej wartości, które są często kupowane w małych ilościach. Te towary można dalej podzielić na dwie podkategorie: artykuły podstawowe i impulsywne. Podstawowe towary wygodne to podstawowe artykuły, które kupujący planują kupić przed wejściem do sklepu, w tym mleko, chleb i papier toaletowy. Artykuły impulsywne to inne towary wygodne, które są kupowane bez wcześniejszego planowania, takie jak batony, napoje bezalkoholowe i gazety brukowe. Ponieważ towary wygodne nie są faktycznie poszukiwane przez konsumentów, producenci starają się uzyskać jak najszerszą dystrybucję za pośrednictwem hurtowników. Aby rozszerzyć dystrybucję, te artykuły są często udostępniane za pośrednictwem automatów w biurach, fabrykach, szkołach i innych miejscach. W sklepach są umieszczane przy kasach i innych miejscach o dużym natężeniu ruchu.
Towary zakupowe
Towary zakupowe są kupowane dopiero po tym, jak kupujący porówna produkty w więcej niż jednym sklepie lub obejrzy więcej niż jeden asortyment towarów przed podjęciem świadomej decyzji o zakupie. Te towary są zwykle bardziej wartościowe niż towary wygodne, kupowane rzadko i są trwałe. Cena, jakość, styl i kolor są zazwyczaj czynnikami wpływającymi na decyzję o zakupie. Telewizory, komputery, kosiarki do trawy, pościel i sprzęt kempingowy to przykłady towarów zakupowych. Ponieważ klienci będą robić zakupy w tych towarach, podstawową strategią zakładania sklepów specjalizujących się w nich jest lokalizowanie ich w pobliżu podobnych sklepów w aktywnych obszarach zakupowych. Trwające strategie marketingu towarów zakupowych obejmują intensywne wykorzystanie reklam w lokalnych mediach, w tym gazetach, radiu i telewizji. Reklama towarów zakupowych jest często prowadzona we współpracy z producentami towarów.
Towary specjalistyczne
Towary specjalistyczne to przedmioty, które są wyjątkowe lub niezwykłe - przynajmniej w umyśle kupującego. Kupujący dokładnie wiedzą, czego chcą i są gotowi podjąć znaczny wysiłek, aby to zdobyć. Te towary są zazwyczaj, ale niekoniecznie, wysokiej wartości i mogą być lub nie być dobrami trwałymi. Różnią się od towarów zakupowych przede wszystkim tym, że cena nie jest głównym czynnikiem. Często atrybuty, które czynią je wyjątkowymi, to preferencje dotyczące marki (np. konkretna marka samochodu) lub preferencje osobiste (np. danie przygotowane w określony sposób). Inne przedmioty, które wpadają w tę kategorię, to suknie ślubne, antyki, biżuteria i kije golfowe. Producenci i dystrybutorzy towarów specjalistycznych wolą umieszczać swoje towary tylko w wybranych punktach sprzedaży detalicznej. Punkty te są wybierane na podstawie ich chęci i zdolności do zapewnienia wysokiego poziomu reklamy i sprzedaży osobistej produktu. Spójność wizerunku między produktem a sklepem jest również czynnikiem przy wyborze punktów sprzedaży. Rozróżnienie między towarami wygodnymi, zakupowymi i specjalistycznymi nie zawsze jest jasne. Jak wspomniano wcześniej, klasyfikacje te opierają się na nawykach zakupowych konsumentów. W związku z tym dany przedmiot może być dobrem wygodnym dla jednej osoby, dobrem zakupowym dla innej i dobrem specjalistycznym dla trzeciej. Na przykład dla osoby, która nie chce spędzać czasu na zakupach, zakup pary butów może być zakupem wygodnym. Z kolei inna osoba może kupić buty dopiero po znacznym namyśle i porównaniu: w tym przypadku buty są dobrem zakupowym. Jeszcze inna osoba, która być może preferuje określoną markę lub ma nietypowy rozmiar, kupi pojedyncze buty tylko w określonym punkcie sprzedaży detalicznej; dla tego kupującego buty są dobrem specjalistycznym.
DOBRA PRZEMYSŁOWE
Dobra przemysłowe to produkty, które firmy kupują w celu wytworzenia innych produktów, które następnie sprzedają. Niektóre są wykorzystywane bezpośrednio w produkcji produktów do odsprzedaży, a niektóre są wykorzystywane pośrednio. W przeciwieństwie do dóbr konsumpcyjnych, dobra przemysłowe są klasyfikowane na podstawie ich zastosowania, a nie nawyków zakupowych klientów. Dobra te dzielą się na pięć podkategorii: instalacje, wyposażenie dodatkowe, surowce, części i materiały wytworzone oraz artykuły przemysłowe. Dobra przemysłowe noszą również oznaczenia związane z ich trwałością. Trwałe dobra przemysłowe, które kosztują duże sumy pieniędzy, są określane jako dobra kapitałowe. Nietrwałe dobra przemysłowe, które są zużywane w ciągu roku, są nazywane pozycjami wydatków.
Instalacje
Instalacje to główne dobra kapitałowe, które są zazwyczaj wykorzystywane bezpośrednio w produkcji towarów. Niektóre instalacje, takie jak systemy przenośników, urządzenia robotyczne i obrabiarki, są projektowane i budowane do specjalistycznych sytuacji. Inne instalacje, takie jak maszyny do tłoczenia, duże piece komercyjne i komputerowa tomografia osiowa (CAT), są zbudowane według standardowej konstrukcji, ale mogą być modyfikowane w celu spełnienia indywidualnych wymagań. Zakup instalacji wymaga szeroko zakrojonych badań i ostrożnego podejmowania decyzji przez kupującego. Producenci instalacji mogą informować o ich dostępności za pośrednictwem reklam. Jednak faktyczna sprzedaż instalacji wymaga wiedzy technicznej i pomocy, które najlepiej można zapewnić poprzez sprzedaż osobistą.
Sprzęt dodatkowy
Towary, które wchodzą w podkategorię sprzętu dodatkowego, to artykuły kapitałowe, które są tańsze i mają krótszą żywotność niż instalacje. Przykłady obejmują narzędzia ręczne, komputery, kalkulatory biurowe i wózki widłowe. Podczas gdy niektóre rodzaje sprzętu dodatkowego, takie jak narzędzia ręczne, są bezpośrednio zaangażowane w proces produkcyjny, większość jest zaangażowana tylko pośrednio. Stosunkowo niska wartość jednostkowa sprzętu dodatkowego, w połączeniu z rynkiem składającym się z nabywców z kilku różnych rodzajów firm, dyktuje szeroką strategię marketingową. Sprzedawcy w dużym stopniu polegają na reklamach w publikacjach handlowych i mailingach do agentów zakupowych i innych nabywców biznesowych. Gdy potrzebna jest sprzedaż osobista, zazwyczaj robią to pośrednicy, tacy jak hurtownicy
Surowce
Surowce to produkty, które są kupowane w stanie surowym w celu przetworzenia ich na dobra konsumpcyjne lub przemysłowe. Przykładami są ruda żelaza, ropa naftowa, diamenty, miedź, drewno, pszenica i skóra. Niektóre (np. pszenica) mogą być bezpośrednio przetwarzane na inny produkt konsumpcyjny (zboża). Inne (np. drewno) mogą być przetwarzane na produkt pośredni (tarcica) w celu odsprzedaży do wykorzystania w innej branży (budownictwo). Większość surowców jest klasyfikowana według jakości, tak aby zapewnić pewną spójność w ramach każdej klasy. Istnieje jednak niewielka różnica między ofertami w ramach klasy. W związku z tym negocjacje sprzedaży koncentrują się na cenie, dostawie i warunkach kredytowych. Te negocjacje, a także fakt, że surowce są zwykle sprzedawane w dużych ilościach, sprawiają, że sprzedaż osobista jest głównym podejściem marketingowym dla tych towarów.
Części i materiały prefabrykowane
Części prefabrykowane to przedmioty, które są kupowane w celu umieszczenia ich w produkcie końcowym bez dalszego przetwarzania. Materiały wytwarzane wymagają natomiast dodatkowej obróbki przed umieszczeniem ich w produkcie końcowym. Wiele branż, w tym przemysł samochodowy, w dużym stopniu polega na częściach wytwarzanych. Producenci samochodów używają takich części wytwarzanych, jak akumulatory, szyberdachy, szyby przednie i świece zapłonowe. Używają również kilku materiałów wytwarzanych, w tym stali i tkanin obiciowych. W rzeczywistości wiele branż kupuje więcej przedmiotów wytwarzanych niż surowców. Nabywcy części i materiałów wytwarzanych mają ściśle określone specyfikacje dotyczące swoich potrzeb. Mogą ściśle współpracować z firmą przy projektowaniu potrzebnych im komponentów lub materiałów lub mogą zapraszać do składania ofert kilka firm. W obu przypadkach, aby móc pozyskać klientów, należy utrzymywać osobisty kontakt z nabywcami przez cały czas. Również w tym przypadku sprzedaż osobista jest kluczowym elementem strategii marketingowej.
Industrial Supplies
Materiały przemysłowe są często kupowanymi pozycjami wydatków. Przyczyniają się pośrednio do produkcji produktów końcowych lub do administrowania procesem produkcyjnym. Materiały obejmują papier komputerowy, żarówki, olej smarowy, materiały czyszczące i materiały biurowe. Nabywcy materiałów przemysłowych nie poświęcają wiele czasu na decyzje zakupowe, chyba że zamawiają duże ilości. W rezultacie firmy zajmujące się marketingiem materiałów kładą nacisk na reklamę - szczególnie w formie katalogów - skierowaną do nabywców biznesowych. Gdy w grę wchodzą duże zamówienia, można skorzystać z przedstawicieli handlowych. Nie zawsze jest jasne, czy produkt jest dobrem konsumpcyjnym, czy przemysłowym. Kluczem do ich rozróżnienia jest określenie sposobu wykorzystania towaru przez nabywcę. Towary, które są w swojej ostatecznej formie, są gotowe do spożycia i są kupowane w celu odsprzedaży końcowemu konsumentowi, są klasyfikowane jako dobra konsumpcyjne. Z drugiej strony, jeśli są kupowane przez firmę na własny użytek, są uważane za dobra przemysłowe. Niektóre przedmioty, takie jak mąka i samochody dostawcze, mogą zostać zakwalifikowane do obu klasyfikacji, w zależności od sposobu ich wykorzystania. Mąka zakupiona przez supermarket w celu odsprzedaży byłaby klasyfikowana jako dobro konsumpcyjne, ale mąka zakupiona przez piekarnię w celu wyrobu ciastek byłaby klasyfikowana jako dobro przemysłowe. Samochód dostawczy zakupiony do użytku osobistego jest dobrem konsumpcyjnym; jeśli zakupiony w celu transportu kosiarek do trawy w celu wykonania usługi koszenia trawników, jest dobrem przemysłowym.
DECA to krajowa organizacja studencka dla osób przygotowujących się do kariery w marketingu, zarządzaniu i przedsiębiorczości. Zrzeszająca 180 000 członków DECA pełni rolę towarzysza programów edukacji marketingowej w szkołach średnich i policealnych we wszystkich pięćdziesięciu stanach Stanów Zjednoczonych, ich terytoriach i Kanadzie. Jako organizacja pozalekcyjna DECA jest integralną częścią nauczania w klasie - narzędziem, za pomocą którego uczniowie uczą się marketingu i zarządzania oraz są motywowani do osiągania sukcesów. We współpracy z firmami w całym kraju DECA oferuje doświadczenia edukacyjne, które przyczyniają się do integracji nauczania akademickiego i ukierunkowanego na karierę, co skutkuje zwiększonymi osiągnięciami uczniów i uznaniem dla uczniów. Na przykład każdego roku ponad 60 000 członków-studentów bierze udział w programie wydarzeń konkurencyjnych, który kończy się stanowymi i krajowymi konferencjami rozwoju kariery w szkołach średnich i policealnych, które pozwalają członkom wykazać się doskonałością akademicką i marketingową. Zorganizowana w 1946 roku DECA zaspokaja potrzeby studentów edukacji marketingowej (wówczas dystrybucyjnej), którzy poszukują rozwoju zawodowego i osobistego. Stowarzyszenie jest zarządzane przez zarząd. Do lipca 1991 r. DECA nazywano Distributive Education Clubs of America. Chociaż nadal jest to prawna nazwa, organizacja używa powszechnie rozpoznawalnego akronimu DECA wraz ze sloganem An Association of Marketing Students. Oficjalnym logo DECA jest diament, którego cztery wierzchołki podkreślają świadomość obywatelską, rozwój przywództwa, zrozumienie zawodowe i inteligencję społeczną. DECA jest doradzana przez krajową radę doradczą, składającą się z przedstawicieli biznesu, oraz radę doradczą Kongresu, składającą się z ustawodawców federalnych. Oficjalnymi publikacjami DECA są DECA Advisor, Dimensions, Chi Connection, Highwired.Net i DECA Guide. Takie stypendia jak Harry A. Applegate, J. C. Penney i Sears Scholarships są dostępne w celu wspierania wysiłków akademickich członków.
Większość społeczeństw polega na konkurencyjnych rynkach, aby zarządzać alokacją ograniczonych zasobów do ich najwyższych i najlepszych zastosowań. Jednak rynki nie są pozbawione wad. Z tego powodu rządy czasami ustanawiają kontrolę regulacyjną. W 1887 r. utworzono pierwszą agencję regulacyjną, Interstate Commerce Commission, w celu regulowania monopolistycznej polityki cenowej kolei. Kiedy prywatne firmy uzyskują władzę monopolistyczną, zwykle z powodu ekonomii skali, są w stanie ograniczyć produkcję i podnieść ceny, nie martwiąc się zbytnio o konkurencję; są one znane jako monopole naturalne. Rząd może zezwolić na istnienie jednego producenta (np. gazu ziemnego lub energii elektrycznej), aby uzyskać niższe koszty produkcji, ale jednocześnie upoważnić agencję regulacyjną do ustalania cen firmy. Drugi powód regulacji wynika z faktu, że społeczeństwo uznaje pewne działania za nielegalne. Prostytucja, hazard i niektóre narkotyki są albo niedozwolone, albo dozwolone tylko pod pewnymi warunkami. Poprzez system licencjonowania agencje rządowe kontrolują, kto wchodzi do takich branż, ich ceny i ich metody działania. Innym powodem regulacji rządowych jest to, że społeczeństwo ustala standardy dla konkretnych zawodów, takich jak medycyna, prawo, księgowość i nieruchomości. Rząd gwarantuje zgodność z tymi standardami, narzucając testy i inne wymagania. Osoby, które nie spełniają tych standardów, nie mają pozwolenia na prowadzenie tej działalności. Setki agencji przeprowadza testy i nadzoruje zawody, wszystko to rzekomo w interesie ochrony konsumenta. Co ciekawe, posiadacze licencji często naciskają na jeszcze wyższe wymagania licencyjne, często obejmując wszystkich obecnych posiadaczy licencji, ponieważ wyższe pensje są możliwe, gdy liczba konkurentów jest ograniczona. Wiele regulacji rządowych ma na celu ochronę ludzi przed negatywnymi konsekwencjami (tj. efektami zewnętrznymi) kupujących i sprzedających, którzy mają niewielką motywację do dbania o dobro osób trzecich. Na przykład rzeźnie mogą mieć swobodę zabijania zwierząt na sprzedaż swoim klientom w sklepach spożywczych, nie biorąc pod uwagę nieprzyjemnych zapachów lub dźwięków wydobywających się z rzeźni. Mieszkańcy okolicy ponoszą jednak koszty zewnętrzne. Za pośrednictwem agencji takich jak Agencja Ochrony Środowiska (EPA) rząd kontroluje, co rzeźnie mogą, a czego nie mogą robić, aby zmniejszyć negatywne skutki dla populacji. Chociaż regulacje rządowe są powszechne z powodów przedstawionych powyżej, oczywiste jest, że regulacje mogą nie osiągnąć wzniosłych celów wyznaczonych w początkowym wysiłku na rzecz regulacji. Rządy mogą również zawodzić, a niepowodzenia rządu często pogłębiają problemy, które zamierzają rozwiązać. Ekonomiści wyboru publicznego zidentyfikowali kilka konkretnych przyczyn niepowodzeń rządu. Wyborcy często są racjonalnie nieświadomi wielu rzeczy i głosują na kandydatów politycznych, którzy są niepoinformowani lub źle poinformowani. Ponadto politycy są często zadłużeni u swoich zwolenników finansowych, z których niektórzy są regulowanymi branżami, i często uchwalają prawa korzystne dla swoich zwolenników, niezależnie od negatywnego wpływu na społeczeństwo. Politycy mogą nawet być skłonni poświęcić przyszłość dla krótkoterminowych korzyści dla swoich zwolenników finansowych. Uznanie takich ograniczeń regulacji rządowych spowodowało, że Kongres przemyślał na nowo regulacje, szczególnie w odniesieniu do niektórych branż. Począwszy od połowy lat 70. XX wieku, rosnące niezadowolenie z ciężaru regulacji, zwłaszcza kosztów nakładanych na konsumentów, doprowadziło do deregulacji wielu branż, w tym linii lotniczych (Airline Deregulation Act z 1978 r.), gazu ziemnego (Natural Gas Policy Act z 1978 r.), transportu ciężarowego (Motor Carrier Act z 1980 r.) i bankowości (Deregulation of Depository Institutions Deregulation and Monetary Control Act z 1980 r.). W 1997 r. niektóre stany zaczęły deregulować produkcję i sprzedaż energii elektrycznej. Nowe technologie pozwalają teraz małym firmom produkować energię elektryczną po obniżonych kosztach. W ramach nowego systemu (podobnego do systemu w branży telefonicznej) lokalne zakłady użyteczności publicznej muszą zezwolić konkurentom na korzystanie z ich linii elektrycznych za opłatą. Korzyści z deregulacji obejmują niższe ceny i większy wybór dla konsumentów. Konkurencja między dostawcami usług telefonicznych międzymiastowych jest ostra, nie wymaga już regulacji rządowych, co potwierdza fakt, że w latach 1985-1998 ceny spadły o 72 procent. Rozszerzenie usług i obniżenie cen nastąpiło zarówno w liniach lotniczych, jak i transporcie ciężarowym. W ciągu trzech lat od deregulacji powstało jedenaście tysięcy nowych linii transportu ciężarowego, a oszczędności mogą sięgać nawet 50 miliardów dolarów rocznie. Jednak pojawiły się pewne obawy dotyczące deregulacji. Branża lotnicza stała się bardziej skoncentrowana od czasu deregulacji. W 1978 r. jedenastu przewoźników obsługiwało 87 procent ruchu, podczas gdy w 1995 r. siedmiu przewoźników obsługiwało 93 procent ruchu. Chociaż niektórzy obawiali się zmniejszenia bezpieczeństwa, to się nie zmaterializowało. Niektóre bankructwa banków w latach 80. przypisywano deregulacji; jednak deponenci otrzymują wyższe odsetki. Podsumowując, efekty deregulacji były pozytywne. Znacząca zmiana kierunku nastąpiła również w odniesieniu do rządowych regulacji branż produkujących efekty zewnętrzne. Wiele efektów zewnętrznych wynika z braku praw własności; w związku z tym większy nacisk kładzie się na ustanowienie jasno określonych praw własności, co pozwala rynkowi automatycznie internalizować koszty dla kupujących i sprzedających, czyniąc regulacje rządowe kosztownymi i niepotrzebnymi. EPA obecnie polega mniej na swoim podejściu nakazowo-kontrolnym, a bardziej na pozwoleniach podlegających obrotowi, zmniejszając ogólny poziom zanieczyszczenia i umożliwiając firmom unikanie zanieczyszczeń w bardziej opłacalny sposób. Chociaż Kongres zderegulował określone branże, rozszerzono regulacje społeczne mające na celu "ochronę" konsumentów. Poprzez takie agencje jak Occupational Safety and Health Administration, Consumer Product Safety Commission, Food and Drug Administration, Equal Employment Opportunity Commission i EPA, rząd próbuje zapewnić bezpieczniejsze produkty, lepszą opiekę zdrowotną, uczciwsze praktyki zatrudnienia i czystsze środowisko. Rząd na szczeblu federalnym, stanowym i lokalnym również nadal zwiększał wymagania licencyjne dla wielu zawodów i profesji. Wielu ekonomistów zastanawia się, czy korzyści są wystarczająco wysokie, aby uzasadniać koszty regulacji. Oprócz narzuconych przez regulacje ograniczeń wolności konsumenta, ceny produktów rosną, koszty administracyjne są wysokie, a niektóre firmy są wypychane z biznesu, co zmniejsza konkurencję. Aby jeszcze bardziej skomplikować sprawę, wiele grup interesów wykorzystuje takie prawa, aby zwiększyć swoje bogactwo kosztem innych. Szacuje się, że federalne regulacje kosztują każde gospodarstwo domowe 6000 dolarów rocznie. Oczywiste jest, że kwestie związane z regulacją/deregulacją będą nadal omawiane w XXI wieku.
Instrumenty pochodne są wykorzystywane jako narzędzia zarządzania finansami w celu zwiększenia zysków z inwestycji i zarządzania ryzykiem związanym ze stopami procentowymi, kursami walutowymi oraz cenami instrumentów finansowych i towarów. Wiele lokalnych i międzynarodowych banków, przedsiębiorstw, gmin i innych podmiotów poniosło znaczne straty z powodu stosowania instrumentów pochodnych. Jednak ich stosowanie wzrosło, ponieważ wysiłki mające na celu kontrolowanie ryzyka w złożonych sytuacjach są postrzegane jako mądre decyzje strategiczne.
DEFINICJA INSTRUMENTU POCHODNEGO W SFAS 133
W 1998 r. Financial Accounting Standards Board (FASB) wydała Oświadczenie w sprawie standardów rachunkowości finansowej nr 133 (SFAS 133), Accounting for Derivative Instruments and Hedging Activities, które obowiązuje dla spółek, których lata obrotowe rozpoczynają się po 15 czerwca 2000 r. SFAS 133 ustanawia nowe zasady rachunkowości i sprawozdawczości dla instrumentów pochodnych, w tym instrumentów pochodnych osadzonych w innych umowach, oraz dla działań zabezpieczających. Instrumenty pochodne muszą być obecnie wykazywane według ich wartości godziwej w sprawozdaniach finansowych. Zyski i straty z transakcji pochodnych muszą być obecnie wykazywane w dochodach, z wyjątkiem transakcji, które kwalifikują się jako skuteczne zabezpieczenia. Zgodnie z Statement on Financial Accounting Standards (SFAS) 133, instrument pochodny jest definiowany jako instrument finansowy lub inny kontrakt, który reprezentuje prawa lub obowiązki aktywów lub zobowiązań ze wszystkimi trzema z następujących cech:
• Posiada (1) jeden lub więcej instrumentów bazowych i (2) jedną lub więcej kwot nominalnych lub postanowień dotyczących płatności lub oba te elementy. Warunki te określają kwotę rozliczenia instrumentu pochodnego. Instrument bazowy to zmienna (tj. cena akcji) lub indeks (tj. indeks obligacji), których ruchy rynkowe powodują zmianę wartości godziwej rynku lub przepływów pieniężnych instrumentu pochodnego. Kwota nominalna to stała kwota lub ilość, która określa wielkość zmiany spowodowanej zmianą instrumentu bazowego; ewentualnie liczba jednostek walutowych, akcji, buszli, funtów lub innych jednostek określonych w umowie. Postanowienie dotyczące płatności określa stałe lub możliwe do ustalenia rozliczenie, które ma zostać dokonane, jeśli instrument bazowy zachowuje się w określony sposób.
• Nie wymaga początkowej inwestycji netto lub początkowej inwestycji netto, która jest mniejsza niż wymagana w przypadku innych rodzajów podobnych instrumentów.
• Jego warunki wymagają lub zezwalają na rozliczenie netto. [SFAS 133, paragraf 6]
UŻYTKOWNICY INSTRUMENTÓW POCHODNYCH
Rynek instrumentów pochodnych zaspokaja potrzeby kilku grup użytkowników, w tym stron, które chcą zabezpieczyć się, spekulować i arbitrażystów.
• Zabezpieczający wchodzi na rynek, aby zmniejszyć ryzyko. Zabezpieczanie zwykle polega na zajęciu pozycji w instrumencie finansowym pochodnym, który ma odwrotne cechy zwrotu niż zabezpieczany przedmiot, aby zrównoważyć straty lub zyski.
• Spekulant wchodzi na rynek instrumentów pochodnych w poszukiwaniu zysków i jest skłonny zaakceptować ryzyko. Spekulant zajmuje otwartą pozycję w produkcie pochodnym (tj. nie ma równoważącej ekspozycji na przepływy pieniężne, aby zrównoważyć straty na pozycji zajętej w produkcie pochodnym).
• Arbitrażysta to spekulant, który próbuje zabezpieczyć niemal bezryzykowny zysk z różnic cenowych, jednocześnie kupując i sprzedając zasadniczo identyczne instrumenty finansowe.
Inni uczestnicy to izby rozliczeniowe lub korporacje rozliczeniowe, brokerzy, komisje ds. obrotu kontraktami terminowymi na towary, operatorzy puli towarowych, doradcy ds. obrotu towarami, instytucje finansowe i banki, giełdy kontraktów terminowych oraz maklerzy kontraktów terminowych.
RODZAJE INSTRUMENTÓW POCHODNYCH
Instrumenty pochodne są klasyfikowane jako:
• Kontrakty terminowe
• Kontrakty futures
• Opcje
• Swapy
Instrumenty pochodne mogą być również klasyfikowane jako oparte na kontraktach terminowych (np. kontrakty terminowe, kontrakty terminowe i kontrakty swap), oparte na opcjach (np. opcja kupna lub sprzedaży) lub kombinacje obu. Kontrakt oparty na kontraktach terminowych zobowiązuje jedną stronę do zakupu, a drugą stronę do sprzedaży bazowego aktywa, takiego jak waluta obca lub towar, z równym ryzykiem w przyszłej dacie po uzgodnionej cenie. Kontrakty oparte na opcjach (np. opcje kupna, opcje sprzedaży, caps i floor) dają posiadaczowi prawo, ale nie obowiązek zakupu lub sprzedaży bazowego instrumentu finansowego, waluty obcej lub towaru po uzgodnionej cenie w określonym okresie czasu lub w określonej dacie.
Kontrakty terminowe Kontrakty terminowe są negocjowane między dwiema stronami, bez formalnych regulacji lub wymiany, w celu zakupu (pozycja długa) i sprzedaży (pozycja krótka) określonej ilości określonej ilości towaru (tj. kukurydzy i złota), waluty obcej lub instrumentu finansowego (tj. obligacji i akcji) po określonej cenie (cena dostawy), z dostawą lub rozliczeniem w określonej przyszłej dacie (data zapadalności). Cena bazowego aktywa do natychmiastowej dostawy jest znana jako cena spot. Kontrakty terminowe mogą być zawierane na podstawie umowy bez płatności gotówkowej, pod warunkiem, że kurs terminowy jest równy bieżącemu kursowi rynkowemu. Kontrakty terminowe są często wykorzystywane do zabezpieczenia całej zmiany ceny towaru, waluty obcej lub instrumentu finansowego. niezależnie od wzrostu lub spadku ceny.
Kontrakty terminowe Kontrakty terminowe to standaryzowane kontrakty notowane na regulowanej giełdzie w celu dokonania lub przyjęcia dostawy określonej ilości towaru, waluty obcej lub instrumentu finansowego po określonej cenie, z dostawą lub rozliczeniem w określonej przyszłej dacie. Kontrakty futures obejmują obligacje skarbowe USA, towary rolne, indeksy giełdowe, aktywa przynoszące odsetki i waluty obce. Kontrakt futures jest zawierany za pośrednictwem zorganizowanej giełdy, przy użyciu banków i brokerów. Te zorganizowane giełdy mają izby rozliczeniowe, które mogą być instytucjami finansowymi lub częścią giełdy futures. Wstawiają się one między kupującym a sprzedającym, gwarantują zobowiązania i sprawiają, że kontrakty futures są płynne przy niskim ryzyku kredytowym. Chociaż nie dokonuje się żadnej płatności przy zawieraniu kontraktu futures, ponieważ instrument bazowy (tj. stopa procentowa, cena akcji lub cena towaru) jest rynkowa, późniejsze zmiany wartości wymagają codziennego ustalania wartości od wartości do wartości poprzez rozliczenie gotówkowe (tj. wypłacone zyski i codziennie zebrane straty). Podobnie wymogi dotyczące depozytu zabezpieczającego obejmują depozyty od obu stron w celu zabezpieczenia wszelkich zobowiązań finansowych. Kontrakty futures są wykorzystywane do zabezpieczenia całej zmiany ceny towaru, waluty obcej lub instrumentu finansowego, ponieważ wartość kontraktu i cena bazowa zmieniają się symetrycznie
Opcje. Opcje to prawa do kupna lub sprzedaży. Na przykład nabywca opcji ma prawo, ale nie obowiązek, kupić lub sprzedać określoną ilość konkretnego towaru, waluty obcej lub instrumentu finansowego po określonej cenie, w określonym czasie (opcja amerykańska) lub w określonym dniu (opcja europejska). Opcja może zostać rozliczona poprzez przyjęcie dostawy bazowego lub poprzez rozliczenie gotówkowe, przy czym ryzyko jest ograniczone do premii. Dwa główne rodzaje kontraktów opcyjnych to opcje kupna i opcje sprzedaży, podczas gdy inne obejmują opcje na akcje (lub kapitałowe), opcje walutowe, opcje na kontrakty futures, opcje cap, floor, collar i swap.
• Amerykańskie opcje kupna dają posiadaczowi prawo do nabycia bazowego produktu (np. akcji) po cenie wykonania lub cenie wykonania, przez cały okres obowiązywania opcji. Posiadacz płaci premię za prawo do skorzystania ze wzrostu wartości bazowego produktu.
• Amerykańskie opcje sprzedaży dają posiadaczowi prawo do sprzedaży bazowego produktu (np. akcji) po określonej cenie wykonania lub cenie wykonania,przez cały okres obowiązywania opcji. Posiadacz zyskuje, gdy cena rynkowa bazowego produktu (cena akcji) spada poniżej ceny wykonania.
• Pułap stopy procentowej to opcja, która pozwala nabywcy pułapu ograniczyć narażenie na rosnące stopy procentowe w przypadku instrumentów dłużnych o zmiennej stopie procentowej.
• Pułap stopy procentowej to opcja, która pozwala nabywcy pułapu ograniczyć narażenie na malejące stopy procentowe w przypadku inwestycji o zmiennej stopie procentowej.
Zazwyczaj kontrakty opcyjne są wykorzystywane do zabezpieczenia jednokierunkowego ruchu bazowego towaru, waluty obcej lub instrumentu finansowego.
Swapy Swap to elastyczny, prywatny, terminowy kontrakt lub umowa, zazwyczaj między dwoma kontrahentami, w celu wymiany strumieni przepływów pieniężnych w oparciu o uzgodnioną (lub teoretyczną) kwotę kapitału w określonym przedziale czasowym w przyszłości. Swapy są zwykle zawierane na warunkach at-the-money (tj. z minimalnymi początkowymi płatnościami gotówkowymi, ponieważ wartość godziwa wynosi zero), za pośrednictwem brokerów lub dealerów, którzy pobierają z góry płatność gotówkową lub dostosowują stawkę, aby znieść ryzyko niewykonania zobowiązania. Dwoma najbardziej rozpowszechnionymi swapami są swapy stóp procentowych i swapy walutowe, podczas gdy inne obejmują swapy akcyjne, swapy towarowe i swap.
• Swaptions to opcje na swapy, które dają posiadaczowi prawo do zawarcia swapu w określonym dniu w przyszłości na określonych warunkach (samodzielna opcja w swapie) lub do przedłużenia lub zakończenia obowiązywania istniejącego swapu (wbudowana opcja w swapie). Kontrakty swapowe służą do zabezpieczenia całościowych zmian cen (symetrycznie) związanych ze zidentyfikowanym zabezpieczonym ryzykiem, takim jak ryzyko stopy procentowej lub ryzyko walutowe, ponieważ obie strony zyskują lub tracą w równym stopniu.
CHARAKTERYSTYKA RYZYKA INSTRUMENTÓW POCHODNYCH
Główne rodzaje charakterystyk ryzyka związanych z instrumentami pochodnymi to:
• Ryzyko bazowe Jest to cena spot (gotówkowa) bazowego aktywa podlegającego zabezpieczeniu, pomniejszona o cenę kontraktu pochodnego użytego do zabezpieczenia aktywa.
• Ryzyko kredytowe Ryzyko kredytowe lub ryzyko niewykonania zobowiązania wynika z możliwości, że jedna ze stron kontraktu pochodnego nie wypełni swoich zobowiązań finansowych wynikających z kontraktu pochodnego
• Ryzyko rynkowe Jest to potencjalna strata finansowa spowodowana niekorzystnymi zmianami wartości godziwej instrumentu pochodnego. Ryzyko rynkowe obejmuje ryzyko prawne, ryzyko kontroli i ryzyko księgowe.
Destop publishing, czyli DTP, to termin stosowany do procesu tworzenia i publikowania profesjonalnie wyglądających dokumentów przy użyciu mikrokomputerów. Systemy DTP mogą produkować wiele typów dokumentów, od prostych do wyrafinowanych, w tym wizytówki, papier firmowy, broszury, biuletyny, ulotki, mapy, kupony, plakaty, zaproszenia, grafiki biznesowe, raporty roczne, propozycje i magazyny. Do takich projektów firma potrzebowałaby sprzętu fotograficznego, oprogramowania do edycji zdjęć, oprogramowania do ilustracji i oprogramowania do układu stron. Na przykład, stworzenie broszury wymagałoby zdjęć osób lub produktów. Oprogramowanie do edycji zdjęć byłoby używane do edycji, łączenia i nadawania fotografii specjalnego traktowania. Oprogramowanie do ilustracji byłoby potrzebne do tworzenia rysunków liniowych lub innych efektów specjalnych. A oprogramowanie do układu stron byłoby potrzebne do uporządkowania wszystkich elementów tekstowych i graficznych. W poniższych sekcjach omówiono historię, komponenty systemu, proces projektowania i wytyczne, funkcje i wytyczne dotyczące zarządzania DTP.
HISTORIA
Historycznie rzecz biorąc, tworzenie i publikowanie profesjonalnie zaprojektowanych dokumentów wymagało różnych procesów i osób. Na przykład, aby stworzyć broszurę, projektant rozwijał ogólny pomysł i tworzył rysunek gotowego dokumentu. Pisarz tworzył tekst, zecer wpisywał tekst w pożądanych czcionkach, ilustrator rysował potrzebną grafikę liniową, fotograf robił zdjęcia, a biuro usługowe wywoływało film i tworzyło separacje kolorów ze zdjęć do pracy nad kolorem. Następnie projektant tworzył ostateczną wersję kompleksową, wklejając tekst, ilustracje i inne elementy na planszy do filmowania. Całościowa wersja była fotografowana, po czym wycinano negatywy fotograficzne i umieszczano je na arkuszu, z którego wykonywano płyty drukarskie. Płyty były następnie montowane w drukarce, a ostateczny dokument był drukowany, przycinany, składany i oprawiany w razie potrzeby. Dzisiejsza technologia DTP automatyzuje wiele z tych kroków i umożliwia jednej osobie z komputerem i oprogramowaniem DTP założenie niezależnej firmy wydawniczej. Zdjęcia można robić aparatami cyfrowymi, omijając etap wywoływania filmu wymagany w tradycyjnej fotografii filmowej. Oprogramowanie do edycji zdjęć umożliwia przycinanie, skalowanie i edycję zdjęć. Oprogramowanie do przetwarzania tekstu jest używane do przechwytywania i przetwarzania tekstu, a oprogramowanie do tworzenia ilustracji jest używane do tworzenia rysunków. Na koniec oprogramowanie do układu stron jest używane do montażu wszystkich komponentów i wydruku, z którego powstają płyty drukarskie. Następnie ostateczny dokument jest drukowany na drukarce komputerowej lub na dużej prasie komercyjnej. Alternatywnie, dokumenty elektroniczne mogą być publikowane w Internecie, udostępniając je odbiorcom na całym świecie.
SKŁADNIKI SYSTEMU
Sprzęt systemu DTP wymaga szybkiego komputera z dyskiem twardym o dużej pojemności, skanera, drukarki o wysokiej rozdzielczości, modemu lub innego połączenia z Internetem, dużej ilości pamięci RAM i aparatu cyfrowego. Ponadto system musi mieć oprogramowanie do przetwarzania tekstu, oprogramowanie do tworzenia ilustracji, oprogramowanie do edycji zdjęć, oprogramowanie do składu stron, oprogramowanie do publikacji w Internecie, grafikę clipart i wiele czcionek. Czasopisma DTP mogą być pomocne w wyborze odpowiedniego sprzętu i oprogramowania.
PROCES PROJEKTOWANIA I WYTYCZNE
Aby odnieść sukces w publikacji na komputerze, trzeba czegoś więcej niż tylko nauczyć się obsługiwać cały sprzęt i oprogramowanie DTP. Najpierw trzeba opracować projekt, co wymaga kreatywności i znajomości zasad projektowania, a następnie użyć sprzętu i oprogramowania, aby projekt stał się rzeczywistością. Pierwsza faza tworzenia dokumentu obejmuje planowanie. Ta faza koncentruje się na określeniu celów publikacji. Na przykład, aby zaprojektować wizytówkę, projektant będzie chciał przekazać klientowi informacje potrzebne do skontaktowania się z firmą i wywarcia na nim dobrego wrażenia. Drugim krokiem jest analiza odbiorców, osób, które będą korzystać z dokumentu i go czytać. Jeśli na przykład newsletter koncentruje się na kolarstwie górskim, odbiorcami mogą być przede wszystkim młodsi entuzjaści outdooru. Dodatkowe badania odbiorców dostarczyłyby dodatkowych informacji na temat cech kolarzy górskich. Trzecim krokiem jest opracowanie strategii lub tematu. Całkowita linia komunikacyjna dla firmy detalicznej zajmującej się kolarstwem górskim może obejmować witrynę internetową, broszury, wizytówki, papier firmowy i koperty, formularze i arkusze informacyjne. Aby osiągnąć jedność, starannie dobrana koncepcja lub temat powinny być obecne we wszystkich tych elementach. Na przykład wszystkie dokumenty mogą mieć wspólny motyw koła rowerowego jako logo firmy, ten sam krój pisma dla tekstu i nagłówków oraz ten sam schemat kolorów. Powtarzanie cech i elementów dokumentu jest kluczową cechą skutecznych dokumentów. Ostatnim krokiem w fazie planowania jest opracowanie prototypu dokumentów, które mają zostać opracowane. Projektanci zazwyczaj tworzą liczne szkice, a następnie stopniowo udoskonalają bardziej preferowane szkice, aż do dokonania ostatecznego wyboru. Ostateczny projekt musi zawierać odpowiednią pustą przestrzeń, zwaną białą przestrzenią, aby dokument nie wyglądał na zbyt zatłoczony. Oczywiście, największym wymogiem ostatecznego projektu jest to, aby był atrakcyjny i przekonywał zamierzoną publiczność. Po fazie planowania dokument jest tworzony. Tworzenie wymaga napisania odpowiedniego tekstu, zwanego kopią, i wybrania odpowiednich czcionek (krojów pisma, stylów pisma i rozmiarów czcionki) dla różnych części tekstu. Aby uzyskać harmonijny wygląd, czcionki muszą uzupełniać style graficzne. Tekst musi być umiejętnie zorganizowany, aby był łatwy do czytania, a sformułowania muszą być zrozumiałe i znaczące dla zamierzonej publiczności. Należy również uzyskać grafikę, albo ilustracje, albo fotografie. Można zatrudnić profesjonalnych artystów do stworzenia potrzebnych ilustracji, a fotografów do zrobienia pożądanych zdjęć. Alternatywnie, osoba może zrobić zdjęcie aparatem cyfrowym lub zwykłym aparatem, a następnie użyć skanera, aby wstawić obraz do oprogramowania DTP. Ilustracje wielu typów można tworzyć za pomocą oprogramowania do tworzenia ilustracji lub można kupić komercyjnie przygotowane grafiki i zdjęcia klipowe do wykorzystania w dokumentach biznesowych. Zgodnie z umowami licencyjnymi oprogramowania, oprogramowanie graficzne może być używane do manipulowania lub łączenia tych grafik w celu uzyskania ostatecznej pożądanej grafiki. Następnie grafika i tekst muszą zostać złożone na stronie za pomocą oprogramowania do układu stron, tak aby wszystkie elementy przyczyniły się do przyjemnego i skutecznego produktu. Należy zastosować zasady koloru, rozmiaru, położenia, kształtu, wzoru i innych technik kontrastu, aby dokumenty przyciągały uwagę czytelników. Dokumenty powinny być również atrakcyjnie zrównoważone po lewej i prawej stronie strony. Równowaga symetryczna oznacza, że lewa i prawa strona strony są wizualnie podobne. Równowaga asymetryczna oznacza, że lewa i prawa strona są wizualnie różne. Asymetryczna równowaga jest mniej formalna i zazwyczaj lepiej przyciąga uwagę czytelników; dokumenty o symetrycznej równowadze przekazują przesłanie formalności i stabilności. Elementy dokumentu powinny być odpowiednio wyrównane z innymi częściami dokumentu, a nie rozmieszczone losowo. Na przykład blok tekstu i powiązana z nim grafika mogą być wyrównane do góry, dołu, lewej lub prawej strony. Użycie siatki strony (wytycznych dzielących stronę na prostokątne wiersze i kolumny) pomoże uzyskać dobry układ. Oprócz wyrównania, powiązane elementy powinny być grupowane i umieszczane bliżej siebie, podczas gdy niepowiązane elementy powinny być rozdzielone. Dodatkowe białe przestrzenie lub obramowania mogą być używane do dzielenia lub obramowywania elementów. Po zaprojektowaniu i utworzeniu dokumentu można go opublikować. Publikowanie może obejmować drukarki stacjonarne, kserokopiarki lub duże prasy komercyjne. Jeśli używane są drukarki komercyjne, projektanci dokumentów powinni skonsultować się z personelem prasowym w sprawie specjalnych procedur i formatów plików wymaganych do tworzenia dokumentu. Oprócz publikowania jako dokumenty papierowe, dokumenty mogą być również publikowane elektronicznie w Internecie w celu przeglądania przez odbiorców na całym świecie.
CECHY
Oprogramowanie do składu stron oferuje następujące funkcje:
Wytyczne wyrównania: umieszcza niedrukowalne linie wyrównania na ekranie komputera w celu łatwego wyrównania grafiki i tekstu
Automatyczne wątkowanie: łączy różne części powiązanych segmentów tekstu w publikacjach wielostronicowych, takich jak czasopisma, i łączy je z odpowiednim tekstem, takim jak "ciąg dalszy na stronie x" i "ciąg dalszy ze strony x"
Drukowanie z separacją kolorów: umożliwia drukowanie różnych płyt drukarskich wymaganych w drukowaniu offsetowym w kolorze Ramki: tworzy prostokątne lub okrągłe pola do przechowywania grafiki lub tekstu
Przycinanie grafiki: umożliwia wycinanie lub przycinanie niechcianych części fotografii
Linie siatki: wyświetla wiele obramowań na ekranie w celu spójnego pozycjonowania tekstu i grafiki
Impozycja: układa długie publikacje, takie jak broszury, książki i czasopisma, do wydrukowania, a następnie złożenia w odpowiednią sekwencję stron
Niezależne rozmieszczenie tekstu i grafiki: umożliwia umieszczanie obiektów tekstowych i graficznych w dowolnym miejscu na stronie bez wpływu pobliskiego tekstu i grafiki
Indeksowanie: zapewnia automatyczne generowanie indeksów i spisów treści
Warstwy: zapewnia możliwość układania tekstu lub grafiki jeden na drugim
Strony wzorcowe: zapewniają automatyczny układ, paginację, nagłówki i stopki oraz elementy graficzne dla wielu stron
Grupowanie obiektów: umożliwia łączenie różnych obiektów graficznych i tekstowych, dzięki czemu można je przenosić jako pojedynczy obiekt
Elastyczność rozmiaru strony: umożliwia tworzenie dokumentów w szerokiej gamie rozmiarów stron
Znaczniki drukarki: drukuje znaki przycięcia i znaki rejestracyjne potrzebne drukarniom komercyjnym podczas wykonywania zadań kolorowych
Odstępy: manipulują ilością białej przestrzeni na stronie, w tym interlinią, kerningiem, śledzeniem, marginesami, wcięciami oraz obramowaniami kolumn i akapitów Sprawdzanie pisowni: zapewnia automatyczne sprawdzanie pisowni dla tekstu
Style: automatycznie dodaje odpowiednie atrybuty typograficzne i układu do tekstu i grafiki
Zakrzywienie i obrót tekstu: umożliwia ustawienie tekstu pod kątem lub zakrzywienie
Typografia: manipuluje wszystkimi aspektami tekstu, takimi jak krój pisma, wysokość, szerokość, kolor i opuszczone wielkie litery
WYTYCZNE ZARZĄDZANIA
Nie każda organizacja musi mieć w pełni wyposażony system DTP. Decyzja dotycząca tego, jakie elementy kupić, powinna być oparta na realistycznej analizie potrzeb. Podejmując tę decyzję, należy odpowiedzieć na kilka pytań, takich jak (1) jakie dokumenty są planowane dla organizacji? (2) czy istniejące oprogramowanie do przetwarzania tekstu może być używane do tworzenia większości dokumentów, których potrzebuje firma? (3) czy organizacja ma przeszkolony personel do projektowania i tworzenia profesjonalnych dokumentów? i (4) ile zewnętrzna agencja będzie pobierać za produkcję dokumentów, które firma chce opublikować? Po dokładnej analizie potrzeb i zasobów firma może zdecydować się na rozwój wewnętrznego projektowania DTP i wiedzy specjalistycznej w zakresie oprogramowania. Jeśli zostanie podjęta taka decyzja, firma może zatrudnić kogoś, kto jest już przeszkolony w zakresie DTP, lub organizacja może wysłać obecnych pracowników na seminaria DTP lub zapisać ich na formalne zajęcia w lokalnej szkole wyższej. Ponadto wysokiej jakości czasopisma dostarczają przydatnych wytycznych projektowych, a także informacji na temat najnowocześniejszych technologii i porównań produktów. Ponadto pomocne strony internetowe udostępniają przydatne wskazówki dotyczące nauki, a liczne książki DTP oferują dodatkową pomoc w projektowaniu dokumentów.
Dyscyplina odnosi się do działań narzuconych przez organizację swoim pracownikom za nieprzestrzeganie zasad, standardów lub polityk organizacji. Tradycyjne podejścia do dyscypliny, oparte na karach, są znane z promowania antagonistycznych relacji między liderami a podwładnymi. Bardziej skuteczne podejście, obecnie stosowane przez wiele firm, uznaje dobre wyniki i zachęca pracowników do zaangażowania się w organizację i jej cele. Gdy pracownicy zauważą rozbieżność między rzeczywistymi a oczekiwanymi wynikami, ciężar zmiany spoczywa na pracowniku. Nawet przy bardziej pozytywnym podejściu do dyscypliny, organizacje nadal muszą mieć jakąś formę procedury dyscyplinarnej, formalnej lub nieformalnej, która wiąże się z kolejnymi surowszymi karami za powtarzające się lub poważniejsze wykroczenia.
USTALANIE I KOMUNIKOWANIE ZASAD PRACY
Pierwszym krokiem w procedurze dyscyplinarnej jest ustanowienie zasad pracy, które są zgodne z celami lub zadaniami organizacji. Te zasady pracy stają się podstawą działań dyscyplinarnych, gdy zasady zostaną naruszone. Są one zazwyczaj ustalane wspólnie przez kierownictwo, jednostkę ds. zasobów ludzkich organizacji i pracowników, którzy powinni mieć możliwość wniesienia wkładu, aby zapewnić, że zasady są uczciwe i można je rozsądnie przestrzegać. Zasady pracy są bezpośrednio związane z zachowaniem w pracy i produktywnością. Pracownicy, którzy stale łamią zasady, są kandydatami do postępowania dyscyplinarnego. Pracownicy muszą znać ustanowione zasady. Nawet jeśli pracownicy mogli mieć wkład w opracowanie zasad, to pracodawca tworzy ostateczną wersję. Zasady pracy organizacji powinny być przedstawione w formie drukowanej, a każdy pracownik powinien otrzymać kopię. Zazwyczaj odbywa się to w formie podręcznika dla pracowników. Podręcznik może zawierać inne informacje, ale zasady pracy stanowią jego krytyczną część. W niektórych organizacjach te zasady pracy są omawiane na spotkaniach, seminariach lub sesjach szkoleniowych. Pracownicy z długim stażem w organizacji zazwyczaj okresowo przeglądają zasady. Zasady pracy powinny być od czasu do czasu przeglądane i, w razie potrzeby, zmieniane. Jeśli organizacja wprowadza duże zmiany w sposobie działania z powodu nowego sprzętu, ekspansji lub redukcji lub nowego właściciela, będzie musiała odpowiednio zmienić swoje zasady pracy. Małe firmy zatrudniające zaledwie kilku pracowników również muszą mieć spisane zasady pracy. Takie firmy mogą nie mieć podręcznika dla pracowników, ale nadal rozsądnie jest, aby zasady zostały spisane i przedstawione każdemu pracownikowi. Ponadto zasady te mogą być wywieszone w miejscu, w którym wszyscy pracownicy mogą je łatwo przeczytać.
OCENA PRACOWNIKÓW
W procesie oceny pracowników, formalnym lub nieformalnym, często ujawniane są zachowania wymagające działań dyscyplinarnych. Nieformalna ocena może mieć miejsce w każdym momencie, gdy przełożeni monitorują pracowników. Formalne oceny każdego pracownika powinny być przeprowadzane regularnie, aby można było wykryć niedociągnięcia i omówić je z pracownikiem. Gdy pracownicy naruszają zasady pracy, dąży się do zmiany zachowania. Chociaż małe firmy zatrudniające zaledwie kilku pracowników mogą nie stosować formalnej pisemnej oceny, nadal ważne jest, aby pracownicy byli regularnie oceniani. Małe firmy mogą łatwiej podejmować działania naprawcze niż duże firmy ze względu na bliskość przełożonego do każdej sytuacji w pracy. Natomiast przełożony w dużej organizacji może odpowiadać za pięćdziesięciu, stu lub więcej pracowników. Gdy pracownicy łamią zasady organizacji, często potrzebują pomocy w zmianie swojego zachowania, aby działać w ramach ustalonych parametrów. Doradztwo i coaching mogą być częścią tego procesu, ale zwykle mają miejsce przed działaniami dyscyplinarnymi. Jeśli pracownicy zmienią swoje zachowanie w wyniku działań dyscyplinarnych i dostosują się do ustalonych zasad pracy, nie ma potrzeby dalszego karania. Jeśli zmiana zachowania nie nastąpi, konieczne będzie wdrożenie surowszej procedury dyscyplinarnej. Potrzebę uciekania się do procedur dyscyplinarnych można zmniejszyć poprzez (1) mądre zatrudnianie, stosowanie kontroli przeszłości i obszernych wywiadów; (2) oceny wyników z jasnymi celami i zadaniami; (3) szkolenia i rozwój w celu poprawy umiejętności i zwiększenia wydajności; oraz (4) nagradzanie wyników i osiągania celów.
KORZYSTANIE Z PROCEDURY DYSCYPLINARNEJ
Chociaż większość pracowników przestrzega zasad i przepisów organizacji, zdarzają się sytuacje, gdy pracodawca musi zastosować procedurę dyscyplinarną. Częste powody stosowania procedury obejmują:
Nieobecność w pracy
Absencja
Znieważanie klientów
Wulgarny język wobec przełożonego
Napaść i bójki między pracownikami
Stwarzanie niebezpiecznych warunków pracy
Uszkodzenie lub utrata maszyn lub materiałów
Nieuczciwość
Nielojalność wobec pracodawcy (w tym konkurowanie z pracodawcą, konflikt interesów)
Fałszowanie dokumentacji firmy (w tym ewidencji czasu pracy, dokumentacji produkcyjnej)
Fałszowanie wniosku o pracę
Hazard
Gry
Niekompetencja (w tym niska produktywność)
Niesubordynacja
Opuszczanie miejsca pracy (w tym wychodzenie wcześniej)
Próżniactwo
Niewłaściwe zachowanie podczas strajku
Zaniedbanie
Obsceniczne lub niemoralne zachowanie
Udział w zakazanym strajku
Posiadanie lub używanie narkotyków lub środków odurzających
Wulgarny lub obraźliwy język (nie w stosunku do przełożonego)
Odmowa przyjęcia zadania służbowego
Odmowa pracy w godzinach nadliczbowych
Spanie w pracy
Spowolnienie
Spóźnienia
Kradzież
Groźba lub napaść przedstawiciela zarządu
Formalna procedura dyscyplinarna zwykle zaczyna się od ustnego ostrzeżenia i przechodzi przez pisemne ostrzeżenie, zawieszenie i ostatecznie zwolnienie. Formalne procedury dyscyplinarne określają również karę za każde kolejne wykroczenie i definiują limity czasowe przechowywania rejestrów każdego wykroczenia i kary. Na przykład rejestry spóźnień mogą być przechowywane tylko przez okres sześciu miesięcy. Spóźnienia przed sześcioma miesiącami poprzedzającymi wykroczenie nie będą brane pod uwagę w postępowaniu dyscyplinarnym. Mniej formalne procedury zazwyczaj określają powody podjęcia działań dyscyplinarnych jako słuszne lub właściwe. Zapobieganie postępowi procedury dyscyplinarnej poza etap ustnego ostrzeżenia jest oczywiście korzystne zarówno dla pracownika, jak i kierownictwa. Dyscyplina powinna być ukierunkowana na korektę, a nie karę. Jeśli zachowanie można skorygować poprzez przyjazną rozmowę między przełożonym a pracownikiem, istnieje mniejsze prawdopodobieństwo, że problem stanie się źródłem goryczy. Formalne ustne lub pisemne ostrzeżenia rzadziej powodują wrogość niż zawieszenie. Oczywiście najkosztowniejszą i najmniej akceptowalną formą dyscypliny jest zwolnienie. Procedury dyscyplinarnenależy postrzegać jako środek zachęcający pracowników do dobrowolnego przestrzegania zasad i standardów organizacji. Ważność posiadania proceduralnie poprawnego systemu oceny wyników jest stale podkreślana. Istnieje potrzeba przyjęcia proceduralnego procesu należytego dla systemów oceny wyników w celu dokładnej oceny wyników pracy pracowników, ponieważ oceny te mogą zostać zakwestionowane. Problemów prawnych dotyczących środków dyscyplinarnych dla pracowników można uniknąć, upewniając się, że środki te są zgodne z określonymi wytycznymi, takimi jak:
• Pracownicy są z wyprzedzeniem powiadamiani o działaniach dyscyplinarnych.
• Zasady dyscyplinarne są rozsądne.
• Wykroczenia są odpowiednio badane.
• Dochodzenia są prowadzone obiektywnie.
• Zasady są egzekwowane w równym stopniu.
• Kary są związane z powagą wykroczeń.
ZAANGAŻOWANIE ZWIĄZKÓW ZAWODOWYCH
W Stanach Zjednoczonych wielu pracowników jest reprezentowanych przez związki zawodowe. W organizacji związkowej, przełożony jest głównym ogniwem łączącym organizację z członkami związku. Pierwszym obowiązkiem przełożonego jest obrona interesów kierownictwa. Jednocześnie przełożony musi wypełniać zobowiązania umowne kierownictwa i dopilnować, aby związek wypełniał swoje zobowiązania. Negocjacje zbiorowe między kierownictwem a związkiem zawodowym określają warunki umów pracowniczych, dokumentów prawnych obejmujących określony okres czasu. Umowy związkowe zawierają postanowienia dotyczące skarg pracowniczych i procedur dyscyplinarnych. Na przykład umowa związkowa może stanowić, że pracownik może zostać ukarany z uzasadnionej przyczyny. Aby spełnić to postanowienie, kierownictwo musi opracować system dyscypliny, którego muszą przestrzegać przełożeni.
CECHY SKUTECZNEGO PROCESU DYSCYPLINARNEGO
Procedura dyscyplinarna jest skierowana przeciwko zachowaniu pracownika, a nie przeciwko osobie. Kluczowe cechy skutecznego procesu obejmują następujące zasady dyscyplinowania pracowników.
1. Czas między przewinieniem a dyscypliną powinien być krótki. Aby dyscyplina była najskuteczniejsza, musi zostać zastosowana tak szybko, jak to możliwe, ale bez podejmowania emocjonalnej, irracjonalnej decyzji.
2. Działanie dyscyplinarne powinno być poprzedzone ostrzeżeniem. Zanotowanie naruszeń zasad w dokumentacji pracownika nie jest wystarczające, aby poprzeć działanie dyscyplinarne. Pracownik, który nie został poinformowany o naruszeniu, nie jest uważany za osobę, która otrzymała ostrzeżenie. Zanotowanie, że pracownik został poinformowany o naruszeniu i nakazanie pracownikowi podpisania formularza dyscyplinarnego to prawidłowe praktyki zatrudnienia. Brak ostrzeżenia pracownika o konsekwencjach powtarzających się naruszeń zasad jest często cytowanym powodem uchylenia działania dyscyplinarnego.
3. Kluczowa jest spójność w procedurze dyscyplinarnej. Niespójność obniża morale, zmniejsza szacunek dla przełożonego i prowadzi do skarg. Spójność nie oznacza, że brak wcześniejszych wykroczeń, długi staż pracy, dobry rekord pracy i inne czynniki łagodzące nie powinny być brane pod uwagę przy stosowaniu dyscypliny. Jednak pracownik powinien czuć, że w zasadniczo tych samych okolicznościach każdy inny pracownik otrzymałby taką samą karę/karę.
4. Przełożeni powinni podjąć kroki w celu zapewnienia bezstronności przy stosowaniu dyscypliny. Pracownik powinien czuć, że działanie dyscyplinarne jest konsekwencją zachowania, a nie osobowości lub relacji z przełożonym. Przełożony powinien unikać kłótni z pracownikiem i powinien stosować dyscyplinę w sposób bezpośredni i spokojny. Stosowanie dyscypliny bez gniewu lub przeprosin, a następnie wznowienie przyjemnych relacji pomaga w zmniejszeniu negatywnych skutków dyscypliny.
5. Zazwyczaj przełożony powinien stosować dyscyplinę w prywatności. Tylko w przypadku rażącej niesubordynacji lub rażącego i poważnego naruszenia zasad pożądana jest publiczna nagana. Następnie publiczna nagana pomaga przełożonemu odzyskać kontrolę nad sytuacją. Jednak nawet w takich sytuacjach celem przełożonego powinno być odzyskanie kontroli, a nie zawstydzenie pracownika.
6. Przełożony powinien ostrzec pracownika o skutkach powtarzających się naruszeń. Czasami sugestie dla pracownika dotyczące sposobów skorygowania zachowania są korzystne. Przełożeni powinni być bardzo niechętni do nakładania zawieszeń dyscyplinarnych i zwalniania pracowników. Zazwyczaj dyscyplina tego stopnia jest zarezerwowana dla wyższych szczebli zarządzania. Jednak chociaż przełożeni zazwyczaj nie mają uprawnień do administrowania zawieszeniami dyscyplinarnymi lub zwalniania pracowników, to prawie zawsze to oni muszą zalecać takie działanie wyższemu kierownictwu.
7. Na koniec konieczne jest udokumentowanie podjętych działań i poinformowanie innych w organizacji. Za każdym razem, gdy organizacja podejmuje działania dyscyplinarne, musi rozważyć możliwość złożenia skargi dotyczącej równych szans zatrudnienia. Dokumentacja powinna być wystarczająco szczegółowa, aby inny menedżer na podobnym szczeblu w organizacji doszedł do tych samych wniosków lub przynajmniej wyraźnie zobaczył, dlaczego podjęto taką decyzję. Wystarczająca dokumentacja nie oznacza, że każdy szczegół pracy danej osoby musi być rejestrowany. Zamiast tego kierownik powinien prowadzić dokładne zapisy tych elementów, które znacząco przyczyniają się do wysiłku związanego z pracą lub go utrudniają. Ponadto informacje te, zarówno pozytywne, jak i negatywne, powinny być przekazywane pracownikowi ustnie lub pisemnie.
PODSUMOWANIE
Jeśli firma ma mieć skuteczną procedurę dyscyplinarną wobec pracowników, zarówno organizacja, jak i kierownik odgrywają ważną rolę. W praktyce firmy przyjmują odpowiedzialność za ustalanie zasad, komunikowanie ich pracownikom i opracowywanie systemu kar w celu ich egzekwowania. Rola kierownika w procedurze dyscyplinarnej jest odmienna od roli organizacji, jednak obie nakładają się na siebie i wzajemnie wspierają. Kierownicy są odpowiedzialni za wdrażanie procedury dyscyplinarnej organizacji. Wymaga to od nich wykonania kilku czynności: muszą porównać zasady swojej organizacji z zachowaniem pracowników, aby ustalić, czy zasada została złamana; muszą ustalić, czy mają wystarczające dowody na to, że pracownik rzeczywiście złamał zasadę; muszą zdecydować, jakie działania naprawcze należy podjąć, a następnie je podjąć; i muszą udokumentować wszelkie podjęte działania. W zakresie, w jakim wszyscy kierownicy skutecznie wykonują te kroki, procedura dyscyplinarna będzie skuteczna i istnieje bardzo duże prawdopodobieństwo, że zachowanie pracowników w pracy może ulec znacznej poprawie.
Pracując i będąc produktywnym, gospodarstwa domowe generują dochód, a przedsiębiorstwa - zysk. Całkowita kwota, jaką gospodarstwa domowe i przedsiębiorstwa otrzymują przed opodatkowaniem i innymi wydatkami, nazywa się dochodem łącznym. Kwota pozostała po opodatkowaniu i innych wydatkach od wynagrodzenia nazywa się dochodem rozporządzalnym. Dochód dyskrecjonalny to kwota, którą konsumenci (gospodarstwa domowe) muszą zapłacić za pożądane dobra i usługi. Skupimy się wyłącznie na gospodarstwach domowych i sposobie, w jaki konsumują swoje dochody. Gospodarstwa domowe przeznaczają większość swojego dochodu dyskrecjonalnego na konsumpcję. Niektórzy konsumenci wydają na konsumpcję nawet więcej niż ich obecny dochód dyskrecjonalny, zaciągając pożyczki. Konsumpcja obejmuje niemal wszystko, co kupują konsumenci, od dóbr trwałego użytku i nietrwałego użytku, a także wszelkiego rodzaju usługi. Jedynym wyjątkiem od tej reguły jest zakup nowego domu: jest on traktowany jako inwestycja, ponieważ wartość nieruchomości ma tendencję do wzrostu. Gospodarstwa domowe (osoby fizyczne) nie mogą wydawać wszystkich swoich dochodów na dobra i usługi konsumpcyjne. Część dochodu, jaki otrzymuje każde gospodarstwo domowe, musi zostać wykorzystana na zapłatę różnych rodzajów podatków, takich jak podatek dochodowy na rzecz władz federalnych, stanowych i lokalnych. Większość władz stanowych i lokalnych nakłada również podatki od sprzedaży. Oprócz płacenia podatków dochodowych i od sprzedaży, gospodarstwa domowe mogą być również zobowiązane do płacenia podatków od nieruchomości na rzecz władz lokalnych. Po zapłaceniu podatków i wydaniu dochodów na dobra konsumpcyjne, niektóre gospodarstwa domowe odkładają pieniądze jako oszczędności, które mają być wykorzystane na konsumpcję w późniejszym czasie. Zarobki różnią się między osobami i gospodarstwami domowymi z powodu kilku czynników: (1) wrodzonych różnic, (2) różnic w kapitale ludzkim, (3) pracy i wydajności pracy, (4) dyskryminacji, (5) wieku, (6) mobilności zawodowej, (7) programów i polityk rządowych oraz (8) szczęścia.
Wrodzone różnice to cechy, którymi dana osoba jest obdarzona, takie jak siła, energia, wytrzymałość, sprawność umysłowa, naturalne zdolności i motywacja.
Różnice w kapitale ludzkim odzwierciedlają sposób, w jaki ludzie inwestują różne ilości swoich zdolności fizycznych i umysłowych w osiąganie określonych celów.
Praca i wydajność w pracy wskazują, jak poszczególne osoby różnią się w swoich preferencjach dotyczących równowagi między pracą a czasem wolnym. Osoby, które chcą pracować więcej, zazwyczaj otrzymują wyższe dochody; inne preferują więcej czasu wolnego kosztem niższych dochodów. Ludzie preferują również różne rodzaje pracy. Te konkretne wybory zawodowe wpływają na dystrybucję dochodów.
Dyskryminacja to traktowanie ludzi w różny sposób wyłącznie na podstawie czynników niezwiązanych z produktywnością.
Wiek ma znaczący wpływ na zarobki. Większość osób zarabia niewiele przed ukończeniem osiemnastego roku życia. Zarobki zwykle rosną wraz z doświadczeniem pracowników i wzrostem ich produktywności.
Mobilność zawodowa - gotowość do przemieszczania się tam, gdzie są miejsca pracy lub tam, gdzie firma ma zapotrzebowanie - zwiększa potencjał dochodowy danej osoby. Brak mobilności ogranicza reakcję pracowników na zmiany stawek płac i może przyczyniać się do nierównego podziału dochodów.
Polityka i programy rządowe, takie jak programy świadczeń i progresywny podatek dochodowy, zmniejszają nierówności dochodowe. Płaca minimalna może również zwiększać nierówności dochodowe.
Szczęście odgrywa rolę w określaniu podziału dochodów, ale wybory są prawdopodobnie najważniejszym czynnikiem.
Cywilizacja weszła w erę informacji, w której biznes jest napędzany wiedzą. Branże, których linie produktów dostarczają wiedzy (np. oprogramowanie, technologia informacyjna i biotechnologia) lub wiedzy procesowej (np. telekomunikacja, bankowość i reklama) kładą coraz większy nacisk na szybkość, elastyczność, wiedzę techniczną i innowacyjność. W związku z tym dla przetrwania każdej organizacji biznesowej konieczne jest ciągłe uaktualnianie bazy wiedzy i poziomu umiejętności siły roboczej, aby nadążać za ciągle zmieniającymi się wymaganiami globalnego rynku i postępem technologicznym. Przyszłość korporacji jest w dużej mierze determinowana przez jej zaangażowanie w rozwój zasobów intelektualnych. Przedsiębiorstwa rozwijają i rozszerzają segment edukacyjny swojej działalności biznesowej, zdając sobie sprawę, że bez tego wkładu szybko stracą przewagę konkurencyjną w wysoce konkurencyjnej gospodarce globalnej. Ciągła edukacja jest nie tylko niezbędna dla przyszłego sukcesu każdej organizacji; równie ważne jest, aby pracownicy pozostali elastycznymi i zwinnymi uczniami, aby czerpać korzyści osobiste i zawodowe z dostępnych możliwości generowanych przez tę nową gospodarkę. Inwestowanie w odpowiedni program, dla odpowiednich osób, we właściwym czasie będzie nadal wyzwaniem dla firm, które strategicznie próbują wykorzystać ogromne możliwości dostępne dla nich w XXI wieku. Innym ważnym powodem ciągłego wzrostu edukacji korporacyjnej jest to, że wiele wysoce konkurencyjnych firm porzuca wielowarstwową organizację hierarchiczną w pogoni za strukturą, która daje pracownikom pierwszej linii uprawnienia do rozwiązywania problemów i podejmowania decyzji w obszarach, które wpływają na ich obszary specjalizacji. Restrukturyzacja korporacyjna, a także szybki postęp technologiczny, dają pracownikom szersze obowiązki, które wymagają większych umiejętności i szkoleń dla samosterujących, wielofunkcyjnych zespołów .
RODZAJE EDUKACJI KORPORACYJNEJ
Niezależna nauka. Niezależna nauka to rosnący trend w edukacji korporacyjnej ukierunkowany na zapewnienie pracownikom interaktywnych szkoleń internetowych, znanych również jako wirtualne klasy, w zaciszu ich własnych biurek. Sieć internetowa redukuje czas i koszty firmy o 50 procent w porównaniu ze szkoleniami w klasie . Pracownicy mają zapewnioną elastyczność uczenia się w dogodnym dla siebie czasie, we własnym tempie i z większości lokalizacji. Ta metoda jest korzystna dla tych, którzy nie mają czasu na uczestnictwo w regularnych zajęciach i dla tych, którzy czują się niekomfortowo w tradycyjnych sytuacjach klasowych, w których oczekuje się od nich przyswajania pojęć w takim samym tempie jak koledzy z klasy. Wartość programu samodzielnej nauki jest zwiększona, gdy jest on używany w połączeniu z pocztą elektroniczną, dyskusjami na czacie na żywo i wideokonferencjami na komputerze. Te dodatkowe narzędzia i zasoby pozwalają pracownikom uczestniczyć w elektronicznych grupach dyskusyjnych, które służą wzmacnianiu celów edukacyjnych. Nauka online za pośrednictwem wirtualnej klasy opiera się bardziej na nauce studentów ze wspólnych dyskusji i projektów zespołowych niż na wykładach. Wraz z dostępnością szybkich form komunikacji medialnej, prezesi wielu dużych korporacji zachęcają do szkolenia swoich pracowników w zakresie umiejętności on-line. Jeśli chodzi o wizerunek publiczny, te branże prezentują świadomość i kompetencje w zakresie najnowocześniejszej technologii, zyskując zaufanie klientów i współpracowników, a także zyskując szacunek rywali.
Staże i szkolenia w miejscu pracy
Staże to forma szkoleń w miejscu pracy, w ramach których osoby posiadające niewielką lub żadną wiedzę na temat określonych zawodów są przygotowywane do wykonywania zawodów rzemieślniczych i zarabiają stawkę godzinową w miarę nauki. Doświadczeni pracownicy szkolą pracowników, aby stali się na przykład wykwalifikowanymi elektrykami, maszynistami, inżynierami operacyjnymi i wytwórcami narzędzi. Takie programy obejmują określoną liczbę godzin zajęć w klasie. Przykłady kursów obejmują bezpieczeństwo, matematykę, czytanie schematów i kursy techniczne związane z konkretnymi wymaganiami stanowiska pracy. "Statystyki pokazują, że absolwenci programów zarabiają wyższe wynagrodzenie, mają bardziej stabilną historię pracy i są częściej awansowani niż pracownicy, którzy nie przeszli szkoleń w ramach programów stażowych" (Texas Workforce Commission, 1999). Inne programy szkoleń w miejscu pracy są dostosowane do uczestników, którzy mają pewne umiejętności związane z pracą, ale muszą stać się bardziej kompetentni i biegli w danym zawodzie. Podobnie jak w przypadku staży, pracownicy odnoszą korzyści, ponieważ są opłacani za naukę. Ponadto pracodawcy korzystają z organizacji szkoleń w miejscu pracy, ponieważ mają pełnoetatowe usługi zmotywowanych osób, które szkolą się, aby spełnić określone potrzeby firmy. Uczestnikami są również wieloletni pracownicy, którzy muszą dostosować się do nowych technologii i procedur, "umiejętności niezbędnych do pełnego i odpowiedniego wykonywania pracy" (Texas Workforce Commission, 1999).
Tradycyjne nauczanie w klasie "Większość organizacji utożsamia rozwój pracowników ze szkoleniem w klasie. Miliardy są wydawane na zapewnianie zajęć - głównie wykładów w klasie - pracownikom na wszystkich szczeblach. Materiał nauczania to głównie koncepcje, teorie, podejścia stosowane przez inne organizacje i analiza wydarzeń z przeszłości" (Wheeler, 1999). Jednak tradycyjne nauczanie w klasie staje się przestarzałe. Niezależnie od tego, czy zajęcia odbywają się w sali konferencyjnej na miejscu, czy w obiekcie poza siedzibą firmy, uczestnicy muszą uczestniczyć w regularnie zaplanowanych sesjach, które często kolidują z obowiązkami zawodowymi i osobistymi. Ponadto czas spędzony w klasie jest często nieproduktywny. Osoby, które przyjdą o określonej godzinie, mogą spędzić kilka minut czekając na innych uczestników zajęć przed rozpoczęciem sesji. Jeśli instruktor jest jedynym aktywnym uczestnikiem, cel szkolenia kursu umyka tym, którzy muszą uczestniczyć. Brak interaktywnej nauki powoduje, że studenci tracą koncentrację na treści kursu, stają się bierni, marzą i patrzą na zegarek. Korporacje z częstą rotacją pracowników, takie jak branża hotelarska i wypoczynkowa, uważają tradycyjną edukację w klasie za nieefektywną, kosztowną i bezcelową. Ten rodzaj branży musi szkolić swój personel, aby właściwie i jednolicie spełniać wymagania dotyczące obsługi klienta; jednak pracownicy są zazwyczaj pracownikami sezonowymi, co sprawia, że powtarzanie szkoleń jest wyczerpującą koniecznością. Ponadto ograniczone budżety ograniczają liczbę dostępnych trenerów korporacyjnych, co stwarza dodatkowe problemy dla międzynarodowych sieci. Brak odpowiedniego szkolenia uniemożliwia pracownikom dobre wykonywanie swojej pracy, co negatywnie wpływa na działalność. Z powodów wyjaśnionych powyżej i wielu innych organizacje przechodzą z tradycyjnej nauki w klasie na interaktywne szkolenia internetowe, które aktywnie angażują studentów w proces nauki. Te programy są zawsze dostępne z wyznaczonych lokalizacji na całym świecie i można je łatwo modyfikować, aby odzwierciedlały różnice kulturowe i językowe. Studenci mogą uczestniczyć w zajęciach często i w dogodnym dla siebie czasie.
Niekonwencjonalne programy szkoleniowe
Niezależnie od zastosowanej metody, dział szkoleń i edukacji organizacji powinien być zaprojektowany tak, aby "utrzymywać ściślejszą odpowiedzialność za wyniki uczenia się, aby lepiej spełniać priorytety korporacyjne". Priorytety edukacyjne nie zawsze koncentrują się na wdrażaniu fizycznych zastosowań. Czasami celem szkolenia jest zmiana postaw pracowników i etyki pracy, a tym samym przekształcenie wewnętrznej kultury korporacyjnej w taką, która jest zgodna z zewnętrznym wizerunkiem i kierunkiem korporacji. Wśród wielu programów, które mogą być odpowiednie dla tego typu zastosowań, znajdują się rozwój przywództwa, budowanie zespołu i rozwiązywanie konfliktów. Szkolenia korporacyjne na świeżym powietrzu, mniej konwencjonalne niż tradycyjne podejście w klasie, zyskują na popularności wśród wielu międzynarodowych firm jako nieformalna, ale znacząca metoda przekazywania wartości korporacyjnych w różnych kulturach. "Na świeżym powietrzu zapewnia wyjątkowe środowisko edukacyjne dla indywidualnych wyzwań, rozwoju osobistego i promowania korzystnych zachowań zespołowych" (Brooks, 2000). Zajęcia obejmują takie działania, jak kajakarstwo, rafting i wspinaczka, które obejmują umiejętności inicjatywy i rozwiązywania problemów. "Zespoły zapewniają ludziom narzędzie do angażowania się, uczenia się od siebie nawzajem i pracy nad ciągłym doskonaleniem. Nauka jest najskuteczniejsza, gdy wiąże się z aktywnym uczestnictwem" (Corporate Outdoor Training, 2000). Inny niekonwencjonalny rodzaj programu edukacji korporacyjnej podkreśla przydatność humoru w miejscu pracy. Ten program zachęca pracowników, począwszy od kadry kierowniczej, do śmiechu i dobrej zabawy, dzięki czemu praca staje się przyjemniejsza dla wszystkich. Motywacją stojącą za tego typu szkoleniem jest stworzenie atmosfery, w której pracownicy chcą pracować, są dumni ze swojego wkładu i cieszą się towarzystwem współpracowników. Organizacje uczestniczące odnoszą korzyści ze zmniejszenia absencji związanej ze stresem i wzrostu kreatywności i innowacyjności siły roboczej. Wiele korporacji odniosło sukces, ponieważ zdały sobie sprawę na wczesnych etapach rozwoju, że szczęśliwy zespół to zespół zwycięski i że "praca może być zabawą, a zabawa może być niezwykle produktywna"
TRWAJĄCA WARTOŚĆ EDUKACJI PRACOWNIKÓW
Korporacje nie mogą pozwolić sobie na samozadowolenie w przekonaniu, że posiadają mnóstwo wykształconych pracowników, którzy są wystarczająco zaznajomieni z istniejącymi technologiami. Jak wykazano w ciągu ostatniego stulecia, ciągły rozwój technologiczny zmienił bieg biznesu z punktu widzenia procesu, przestarzałe narzędzia i praktyki biznesowe, które kiedyś były uważane za przydatne, a nawet najnowocześniejsze. Gdy świat rozpoczyna swoją podróż przez coraz bardziej konkurencyjną globalną gospodarkę XXI wieku, ciągła edukacja pracowników pozostaje krytycznym elementem w określaniu zdolności branży do przetrwania. Ewoluujące systemy informatyczne i urządzenia peryferyjne ułatwią światową komunikację biznesową i transakcje, umożliwiając natychmiastowy dostęp do wielu typów danych z różnych lokalizacji. Szybkość i biegłość w korzystaniu z tych systemów, które są osiągane głównie poprzez ciągłą edukację siły roboczej, będą decydować o statusie branży w społeczności biznesowej. Jest mało prawdopodobne, aby ta
tendencja się odwróciła. Ludzkość przyzwyczaja się do informacji na żądanie, a w dłuższej perspektywie technologia jest opłacalna. Według Kena Bryanta, starszego specjalisty ds. biznesowych w Genicom Corporation, wirginijskiego producenta drukarek i firmy zajmującej się integracją sieci, "Wraz ze wzrostem przedsiębiorstw opartych na technologii, zwłaszcza na rozwijającym się rynku internetowym, korporacyjnym samobójstwem jest nieaktywne zachęcanie i niepromowanie ciągłego szkolenia korporacyjnego wśród pracowników. Firmy technologiczne zrewolucjonizowały marketing, obsługę klienta i wiele innych aspektów biznesu, zmieniając kulturę korporacyjną i nakazując coraz wyższy poziom kompetencji. Brak szkoleń, czy to poprzez tradycyjne zajęcia, miejsca kształcenia ustawicznego, czy nieformalne grupy robocze (pomocowe), stawia firmy w wyraźnej niekorzystnej sytuacji w globalnym handlu" . Najważniejszym celem każdej korporacji jest zwiększenie zysków. Bez stałego zaangażowania w edukację siły roboczej firmy skazują się na porażkę. Samozadowolenie zapewnia, że cele organizacyjne nigdy nie zostaną osiągnięte.
Ekonomia jest często opisywana jako zbiór wiedzy lub badań, które omawiają, w jaki sposób społeczeństwo próbuje rozwiązać ludzkie problemy nieograniczonych potrzeb i ograniczonych zasobów. Ponieważ ekonomia jest związana z ludzkim zachowaniem, badanie ekonomii jest klasyfikowane jako nauka społeczna. Ponieważ ekonomia zajmuje się problemami ludzkimi, nie może być nauką ścisłą i można łatwo znaleźć różne poglądy i opisy ekonomii. W tej dyskusji skupiono się na przeglądzie elementów, które stanowią badanie ekonomii, tj. potrzeb, pragnień, niedoboru, zasobów, dóbr i usług, wyboru ekonomicznego oraz praw podaży i popytu. Każda osoba podejmuje decyzje ekonomiczne każdego dnia swojego życia. Dzieje się tak, gdy ktoś decyduje, czy ugotować posiłek w domu, czy pójść do restauracji, aby zjeść, lub gdy decyduje, czy kupić nowy luksusowy samochód, czy tani pick-up. Ludzie podejmują decyzje ekonomiczne, gdy decydują, czy wynająć lub kupić mieszkanie lub gdzie powinni pójść na studia.
POTRZEBY, CHĘCI I NIEDOBÓR
Jako społeczeństwo i w kategoriach ekonomicznych ludzie mają nieograniczone potrzeby; jednak zasoby są ograniczone. Nie myl potrzeb i pragnień. Osoby często chcą tego, czego nie potrzebują. W przykładzie samochodu użytym powyżej, ktoś może chcieć jeździć dużym luksusowym samochodem, ale mały pickup może być bardziej odpowiedni dla potrzeb nabywcy, jeśli musi on mieć pojazd do przewożenia mebli. Należy podejmować decyzje ekonomiczne. Zasób jest ograniczony, gdy nie ma go wystarczająco dużo, aby zaspokoić ludzkie potrzeby. A ludzkie potrzeby są nieskończone. Ze względu na nieograniczone potrzeby i ograniczone zasoby do zaspokojenia tych potrzeb, należy podejmować decyzje ekonomiczne. Należy zająć się tym problemem niedoboru (ograniczonych zasobów), co prowadzi do ekonomii i problemów ekonomicznych. Na decyzje ekonomiczne wpływa wiele elementów. Aby lepiej zrozumieć ekonomię, kluczowe jest zrozumienie tego, co pokazano na tym rysunku.
ZASOBY
Zasoby ekonomiczne, często nazywane czynnikami produkcji, dzielą się na cztery ogólne kategorie. Są to ziemia, praca (czasami nazywana zasobami ludzkimi), kapitał i przedsiębiorczość.
Ziemia. Ziemia opisuje grunt, który może być wykorzystany do zbudowania konstrukcji, takiej jak fabryka, szkoła, dom lub kościół, ale oznacza znacznie więcej. Ziemia to również termin używany do określenia zasobów pochodzących z ziemi. Drzewa są produkowane przez ziemię i są wykorzystywane do produkcji drewna, drewna opałowego, papieru i wielu innych produktów, więc są określane jako ziemia. Minerały pochodzące z ziemi, takie jak olej używany do produkcji benzyny lub smarowania silników samochodowych, lub złoto używane do produkcji biżuterii, lub pszenica uprawiana na ziemi i używana do produkcji chleba i innych produktów, lub owce hodowane dla wełny, którą produkują, a która jest używana do produkcji swetrów, są wszystkie określane jako ziemia.
Praca (zasoby ludzkie). Praca to ogólna kategoria ludzkiego wysiłku, który jest wykorzystywany do produkcji dóbr i usług. Obejmuje to pracę fizyczną, taką jak zbieranie drzew na drewno, wiercenie w celu pozyskania ropy naftowej lub wydobywanie złota, uprawa pszenicy na chleb lub hodowla owiec, które produkują wełnę na sweter. Oprócz pracy fizycznej istnieje praca umysłowa, która jest niezbędna do takich czynności, jak planowanie najlepszych sposobów zbioru drzew i podejmowanie decyzji o tym, które drzewa wyciąć. Praca jest również zaangażowana, gdy lekarz lub chirurg analizuje i diagnozuje (praca umysłowa) przed wykonaniem zabiegu medycznego, a następnie wykonuje zabieg (praca fizyczna).
Kapitał. Kapitał jest wkładem, który jest często postrzegany na dwa sposoby, podobnie jak praca. Kapitał można postrzegać jako kapitał ludzki - wiedzę, umiejętności i postawy, które posiadają ludzie, a które pozwalają im produkować. Innym rodzajem kapitału jest kapitał fizyczny, który obejmuje budynki, maszyny, narzędzia i inne przedmioty, które są wykorzystywane do produkcji towarów i usług. Tradycyjnie kapitał fizyczny był warunkiem wstępnym kapitału ludzkiego; jednak ze względu na szybkie zmiany w technologii, obecnie kapitał ludzki jest mniej zależny od kapitału fizycznego.
Przedsiębiorczość. Jedną ze szczególnych form kapitału ludzkiego, która jest ważna w kontekście ekonomicznym, jest przedsiębiorczość (często uważana za czwarty czynnik produkcji). Zdolności przedsiębiorcze są potrzebne do ulepszania tego, co mamy, i tworzenia nowych dóbr i usług. Przedsiębiorca to osoba, która łączy wszystkie zasoby ziemi, pracy i kapitału, które są potrzebne do wytworzenia lepszego produktu lub usługi. W procesie tego przedsiębiorca jest skłonny podjąć ryzyko sukcesu i porażki. Wiele osób kojarzy przedsiębiorczość z tworzeniem lub posiadaniem nowego biznesu. To jedna z definicji przedsiębiorczości, ale nie jedyna. Przedsiębiorca może stworzyć nowy rynek dla czegoś, co już istnieje, lub posunąć wykorzystanie zasobów naturalnych do nowych granic, aby zmaksymalizować wydajność i zminimalizować zużycie. Zobacz "przedsiębiorczość", aby uzyskać bardziej ogólną dyskusję na temat posiadania biznesu.
TOWARY I USŁUGI
Potrzeba ziemi, pracy i kapitału, których przedsiębiorca używa do produkcji dóbr i usług, które ostatecznie zostaną wykorzystane do zaspokojenia naszych potrzeb. Towary są namacalne, co oznacza, że można je zobaczyć lub dotknąć. Produkcja dóbr wymaga użycia ograniczonych zasobów do produkcji w celu zaspokojenia potrzeb. Przykładem może być rolnik, który uprawia zboże. Rolnik używa sprzętu rolniczego wyprodukowanego z zasobów; ziemia jest naturalnym zasobem, który jest używany do uprawy zboża; a ponieważ wzrost zboża wyczerpuje składniki odżywcze w glebie, rolnik musi używać nawozów, aby przywrócić składniki odżywcze. Ograniczone zasoby są używane do produkcji nawozów naturalnych lub chemicznych, ale są one niezbędne do produkcji roślinnej. Woda może być używana do nawadniania upraw i zwiększania produkcji. Kiedy uprawa jest gotowa do zbioru, rolnik używa dodatkowych zasobów, aby dokończyć proces - sprzętu, benzyny, pracy itd. - co skutkuje dobrem, które może być używane lub sprzedawane do użytku przez innych. Usługi są świadczone na wiele sposobów i są niematerialną działalnością. Nie ma wątpliwości, że często można zobaczyć kogoś świadczącego usługę, ale usługa nie jest czymś, co ktoś może odebrać i zabrać do domu, aby z niej skorzystać. Przykładem usługi jest przejazd taksówką przez zatłoczone miasto. Wymaga zasobów, aby właściciel lub kierowca mógł świadczyć usługę, a pasażer świadomie jedzie taksówką. Kiedy przejazd jest zakończony i dostawca otrzymuje zapłatę, pasażer nie ma niczego namacalnego do trzymania poza paragonem. Jednak zasoby zostały wykorzystane do świadczenia usługi. Samochód używany jako taksówka, paliwo używane do obsługi taksówki i praca kierowcy to przykłady zasobów wykorzystywanych do świadczenia usługi, która zaspokoi potrzebę. Ważne jest, aby zrozumieć, że ponieważ dobra i usługi wykorzystują zasoby, które są ograniczone, dobra i usługi są również rzadkie. Niedobór pojawia się, gdy popyt na dobro lub usługę jest większy niż ich podaż. Pamiętaj, że społeczeństwo ma nieograniczone potrzeby, ale ograniczone zasoby. To niedobór powoduje, że konsumenci muszą dokonywać wyborów. Jeśli jednostki nie mogą mieć wszystkiego, czego pragną, muszą zdecydować, które dobra i usługi są dla nich najważniejsze, a bez których mogą się obejść.
WYBÓR EKONOMICZNY
Koszt alternatywny. Kiedy podejmuje się decyzje ekonomiczne, dzieje się tak z powodu ograniczonych zasobów. Należy rozważyć alternatywy. Ludzie podejmują takie decyzje, oczekując większych korzyści z jednej alternatywy niż z innej. Wybór wiąże się z kosztem alternatywnym. Koszt alternatywny to korzyść utracona z najlepszej alternatywy, która nie została wybrana: jednostki rezygnują z możliwości korzystania z czegoś lub cieszenia się czymś, aby wybrać coś innego. Kosztów alternatywnych nie zawsze można zmierzyć, ponieważ może to być utracona satysfakcja. Jednak w innych przypadkach można zmierzyć koszt alternatywny. Oto przykłady każdego z nich. Być może student ciężko się uczy do egzaminu końcowego z trudnego przedmiotu, ponieważ dobry wynik egzaminu jest kluczowy dla uzyskania pożądanej oceny. Przyjaciele dzwonią, aby zaprosić studenta na wieczór. Alternatywami są nauka lub zabawa. Będąc mądrym, student wybiera naukę zamiast wychodzenia. Trudno jest zmierzyć koszt alternatywny zabawy ze znajomymi. W drugim przykładzie ten sam studiujący student zostaje poproszony o pomoc komuś w sprzątaniu garażu. Jeśli osoba oferuje studentowi 50 dolarów za posprzątanie garażu, a student zdecyduje się uczyć, koszt alternatywny można łatwo zmierzyć na poziomie 50 dolarów. W obu tych przykładach koszt alternatywny jest bezpośrednio związany z tym, z czego zrezygnowano, a nie z żadnymi innymi korzyściami, które mogą wynikać z tej decyzji. Okoliczności również odgrywają rolę w koszcie alternatywnym. Czasami ludzie są zmuszeni do podjęcia decyzji ze względu na okoliczności, a wyniki nie zawsze mogą być optymalne. Na przykład, jeśli ktoś planuje przeprowadzkę do nowego miasta, aby rozpocząć nową pracę i chce sprzedać dom przed przeprowadzką, aby móc kupić nowy dom w nowej lokalizacji, osoba ta może sprzedać dom za cenę niższą niż cena rynkowa, aby dokończyć proces. Koszt alternatywny to wartość tego, z czego zrezygnowano, aby móc kupić nowy dom. Za każdym razem, gdy dokonywany jest wybór, zakłada się koszty alternatywne.
Produkcja. Inny wybór ekonomiczny, który należy podjąć, jest związany z produkcją. Należy podjąć wszystkie cztery decyzje: Jakie dobra będą produkowane? Jak będzie przebiegać produkcja? Ile powinno być produkowane? Kto będzie odbiorcą? Wszystkie te decyzje wpływają na wydajność produkcji. Wydajność jest podstawowym elementem decydującym o tym, co produkować i jak przebiegać proces produkcji. Wydajność to produkcja z najmniejszymi kosztami, wysiłkiem i marnotrawstwem, ale nie bez kosztów. Jeśli zabierzesz coś osobie, aby zadowolić inną osobę, jedna będzie mniej szczęśliwa, a druga bardziej szczęśliwa. Jeśli można znaleźć sposób, aby uszczęśliwić jedną osobę bez uszczęśliwiania drugiej osoby, byłoby to wydajne. Przykładem wydajności ekonomicznej może być następujący przypadek. Załóżmy, że ktoś posiada samochód, a jego przyjaciel nie posiada samochodu, ale nim jeździ. Przyjaciel potrzebuje regularnego transportu przez tydzień. Zdarza się, że właściciel samochodu jest w czasie, gdy wyjeżdża w podróż służbową i nie będzie korzystał z samochodu. Nie ma sensu, aby przyjaciel kupował samochód na tak krótki okres czasu, więc właściciel pożycza go przyjacielowi na ten tydzień. Właściciel samochodu nie jest w gorszej sytuacji, a przyjaciel w lepszej. W tej sytuacji wystąpiła efektywność ekonomiczna. Gdyby właściciel samochodu nie pożyczył samochodu przyjacielowi, doszłoby do marnotrawstwa, ponieważ przyjaciel musiałby kupić lub wynająć samochód. Marnotrawstwem jest niekorzystanie z okazji, w których żadna ze stron nie traci satysfakcji. Efektywność produkcji to sytuacja, w której nie można wyprodukować więcej jednostek dobra bez utraty możliwości wyprodukowania innego dobra, chyba że nastąpi zmiana w dostępnych zasobach produkcyjnych. Jeśli rolnik uprawia pszenicę, która ma być sprzedawana w celu produkcji chleba, istnieje punkt, w którym dodanie dodatkowego nawozu do gleby nie przyniesie żadnych korzyści. Gdyby nawóz został użyty na uprawę owsa na innym polu, produkcja tej uprawy mogłaby zostać zwiększona. Sposobem na zwiększenie produkcji pszenicy jest znalezienie różnych zasobów, aby poprawić uprawę, takich jak nawadnianie ziemi w celu zapewnienia większej wilgotności. W powyższym przykładzie zasugerowano, że inne lub dodatkowe zasoby mogą być wykorzystane do zwiększenia produkcji. Jest to konieczne dopiero po osiągnięciu wydajności. Dodatkowe zasoby musiałyby pochodzić z ziemi, pracy, kapitału lub przedsiębiorczości. Najczęściej kapitał będzie wykorzystywany najczęściej do zwiększenia produkcji. Kapitał to produktywny wkład, który jest zwiększany przez ludzi. Jest to znane jako inwestycja. Inwestycja polega na rezygnacji z tego, co mogłoby być obecnie konsumowane, na rzecz produkcji czegoś do konsumpcji w przyszłości. Jeśli rolnik chce zwiększyć produkcję pszenicy w przyszłości, będzie musiał teraz z czegoś zrezygnować, aby zwiększyć zasoby dostępne na przyszłą produkcję. Zwiększenie kapitału ludzkiego ma kluczowe znaczenie dla zwiększenia produkcji. Nie oznacza to, że należy wyprodukować więcej osób, ale raczej, że należy zwiększyć wiedzę i umiejętności ludzi. Może się to zdarzyć z powodu udoskonaleń w technologii i nowych sposobów zaspokajania potrzeb. Obejmuje to czynnik przedsiębiorczości, który został opisany wcześniej - element ludzki, który wymyśla sposoby na ulepszenie i rozszerzenie zasobów, które już istnieją.
Dystrybucja produktów. Dostarczenie towarów do rąk tych, którzy ich chcą, wiąże się z wieloma wyborami. System ekonomiczny musi zdecydować, jak podzielić produkty, które są wytwarzane, pomiędzy potencjalnych odbiorców. Czasami produkty mogą być dzielone równo pomiędzy odbiorców, ale zazwyczaj tak nie jest. Następnie należy ustalić, w jaki sposób podział będzie miał miejsce. W kapitalistycznym systemie ekonomicznym dystrybucja jest często determinowana przez bogactwo. Jeśli dwie osoby mają te same potrzeby, osoba, która może sobie na coś najbardziej pozwolić, będzie w stanie to nabyć.
PRAWA PODAŻY I POPYTU
Decyzje produkcyjne podejmowane są na podstawie popytu na dobra i usługi. Podaż dóbr i usług zależy od popytu na nie. Dlaczego filmy, które są znacznie bardziej popularne, pozostają w kinach dłużej niż te, które nie są tak popularne? Popyt na film powoduje, że operatorzy kin zapewniają pokazy, których chce konsument. Dlaczego cena pokoju w hotelu konferencyjnym spada w weekendy? W weekendy jest mniejszy popyt, ponieważ większość uczestników konferencji wyjeżdża w piątek lub sobotę, a inni przyjeżdżają dopiero w poniedziałek, więc podaż dostępnych pokoi wzrasta. Operatorzy hoteli starają się stworzyć większy popyt na swoje wolne pokoje weekendowe, obniżając ceny i oferując atrakcyjne udogodnienia. Prawo popytu mówi, że w określonym okresie czasu ilość produktu, na który jest popyt, jest odwrotnie proporcjonalna do jego ceny, o ile inne rzeczy pozostają stałe. Im wyższa cena, tym niższy popyt; im niższa cena, tym większy popyt. Nie myl popytu z pragnieniami. Konsumenci mają nieograniczone pragnienia, jak ustalono na początku tej dyskusji. Żądania i pragnienia nie są tym samym, co potrzeby. Konsument może potrzebować założenia korony na ząb, ale może nie chcieć tego zrobić z powodu wysokich kosztów. W pewnym momencie cierpiący pacjent może zażądać, aby usługi zostały wykonane niezależnie od ceny. Często, gdy ceny są zbyt wysokie, a popyt na produkt lub usługę maleje, dzieje się tak, ponieważ konsumenci znaleźli odpowiedni substytut. Substytucja ma miejsce cały czas w wyniku decyzji ekonomicznych podejmowanych przez konsumentów. Na przykład, jeśli ktoś potrzebuje zimowego płaszcza i podoba mu się taki z markową nazwą i ceną odzwierciedlającą tę nazwę, zakup może nie zostać dokonany. Zamiast tego osoba ta znajduje podobny płaszcz, który nie ma markowej metki i kupuje go po znacznie niższej cenie. Popyt na towary lub usługi określa ilość, która zostanie dostarczona. Prawo podaży mówi, że im większy popyt, tym więcej zostanie dostarczone; im mniejszy popyt, tym mniej zostanie dostarczone. Ilość, która zostanie dostarczona przez producenta dobra lub usługi, opiera się na zdolności i chęci dostarczenia produktu po określonej cenie. Producent nie dostarczy dóbr i usług tylko dlatego, że jest na nie popyt - cena dobra lub usługi jest ważnym czynnikiem. Jeśli konsumenci są skłonni zapłacić więcej za dobro lub usługę, producent prawdopodobnie będzie skłonny przesunąć więcej zasobów, aby zwiększyć podaż pożądanego produktu. Jeśli hodowca hoduje bydło mięsne najwyższej jakości i istnieje duży popyt na to dobro, a konsumenci są skłonni zapłacić więcej za wysokiej jakości wołowinę, hodowca może być skłonny dostarczyć więcej, nawet jeśli konieczne będzie przesunięcie zasobów lub pozyskanie dodatkowych zasobów, aby to zrobić. Popyt się zmienia, podaż się zmienia, a ceny się zmieniają. Jak więc producent wie, ile jest wystarczające i jaką cenę pobierać za dobra i usługi? Mówiąc najprościej, popyt na dobra i usługi oraz ich podaż można przedstawić na wykresach przy użyciu różnych cen. Podaż i popyt na dobro lub usługę przecinają się na wykresie przy tak zwanej cenie równowagi lub cenie, przy której wszystkie dostarczone produkty będą przedmiotem popytu. Jeśli cena jest poniżej równowagi, wystąpi niedobór dobra lub usługi, a jeśli cena jest powyżej równowagi, wystąpi nadwyżka dobra lub usługi. Aby uzyskać bardziej szczegółowe wyjaśnienie tego aspektu ekonomii, zapoznaj się z dyskusją na temat podaży i popytu.
PODSUMOWANIE
Ekonomia to złożony temat, który jest stale i dogłębnie badany. Niniejszy artykuł przedstawia przegląd niektórych głównych zasad ekonomii; jednak wiele z nich nie zostało nawet wprowadzonych. W całej encyklopedii znajdują się inne tematy, takie jak makroekonomia i mikroekonomia, które dodatkowo zdefiniują i rozszerzą temat ekonomii.
Ekonomia istnieje od zarania dziejów, ale badania nad ekonomią sięgają zaledwie kilkuset lat wstecz. Od początku historii ludzkości ludzie musieli stawiać czoła problemowi ograniczonych zasobów i nieograniczonych potrzeb. Badania nad ekonomią będą kontynuowane do końca czasów, ponieważ każdy dzień odkrywa nowe dowody, które wspierają lub rewolucjonizują teorię ekonomiczną.
ROZWÓJ SYSTEMÓW EKONOMICZNYCH
Stany Zjednoczone mają kapitalistyczny system gospodarczy. Czasami ten system nazywany jest systemem wolnej przedsiębiorczości, ponieważ termin ten jest bardziej akceptowalny dla niektórych osób. System kapitalistyczny obejmuje społeczeństwo rynkowe lub system rynkowy - system merkantylizmu, w którym uczestnicy reagują swobodnie na szanse i wyzwania rynku. Jest to w przeciwieństwie do systemów, w których uczestnicy podążają za tradycją lub poleceniami innych. W systemie rynkowym każdy może kupować ziemię lub sprzedawać ją z własnej woli lub wytwarzać produkty i/lub usługi, które są sprzedawane po cenie rynkowej. We wcześniejszych społeczeństwach uczestnicy reagowali nie na wymagania rynku, ale na wymagania tradycji lub prawa, a także na groźbę i strach przed karą. Czynniki produkcji, kluczowe dla systemu kapitalistycznego, są wynikiem historycznych zmian, które uczyniły pracę kluczem do tworzenia bogactwa, uczyniły nieruchomości z ziemi, która była w rodzinach od pokoleń, i uczyniły kapitał z posiadłości. Kapitalizm, system wolnego rynku, był przyczyną wielu niepokojów i niepewności, ale dał też początek postępowi i ostatecznie spełnieniu. Było kilku kluczowych ludzi, których praca i pisanie ekonomiczne pomagają wyjaśnić obecne myślenie o systemach ekonomicznych. Idee czterech z nich są tutaj przedstawione.
ADAM SMITH (1723-1790)
Być może najbardziej znany i jeden z najbardziej szanowanych ekonomistów, Adam Smith napisał Bogactwo narodów w 1776 roku, w tym samym roku, w którym podpisano Deklarację niepodległości. W tym słynnym dziele Smith wyjaśnił, jak działa niezależne społeczeństwo. Odpowiedział na kilka pytań, jakie ludzie mieli w tamtym czasie na temat koncepcji systemu wolnego rynku. Głównym zmartwieniem było pytanie, w jaki sposób można kontrolować tych, których pochłania chciwość, aby nie przejęli społeczeństwa. Smith wprowadził koncepcję konkurencji. Każdy, kto jest nastawiony na poprawę tylko siebie, nie zważając na innych, będzie musiał zmierzyć się z innymi, którzy mają takie same cele. W tym nowym systemie ci, którzy kupują lub sprzedają, są zmuszeni do spełniania cen oferowanych przez konkurentów. Smith zilustrował również, że system rynkowy ma również inną ważną funkcję. Tą funkcją jest produkcja dóbr i usług, których chce społeczeństwo, i w ilościach, których chce społeczeństwo. Dobrym przykładem tego jest to, że kiedy produkty takie jak hula-hop, lalki z kapusty lub beanie babies stały się modne, nie produkowano ich wystarczająco dużo, aby zadowolić wszystkich potencjalnych nabywców. W rezultacie producenci musieli zwiększyć produkcję i byli w stanie podnieść ceny, ponieważ popyt na produkty był tak duży, a nabywcy byli skłonni zapłacić wyższe ceny. W rzeczywistości wielu nabywców kupowało ilości, których nie potrzebowali, aby móc z kolei sprzedać produkty o dużym popycie innym, którzy byli skłonni zapłacić wyższą cenę. Taki jest kapitalistyczny system rynkowy. Smith był niezwykle wizjonerski i przewidział, że jeśli wolny rynek ma się rozwijać i prosperować, musi być niewielka interwencja rządu. Widział, że wolny rynek musi być samoregulujący się, aby stać się bogatym i silnym. Wyraźnie dał do zrozumienia, że to chciwość jednostek i pragnienie zysków stworzą działający system reeenterprise, który jest samoregulujący.
KARL MARX (1818-1883)
Samo wspomnienie Karla Marksa może być dla niektórych niepokojące; jednak jego myśli i pisma na temat ekonomii skłoniły wielu do bardziej intensywnej analizy ekonomicznej. Jego rola w historii gospodarczej jest zupełnie inna niż rola Adama Smitha. Smith był wizjonerem w kwestii uporządkowanych procesów i wzrostu kapitalizmu, podczas gdy Marx zdiagnozował jego nieuporządkowanie i ostateczny upadek. Marks uważał, że wzrost jest obarczony kryzysami i pułapkami. Marks był pierwszym teoretykiem ekonomii, który podkreślił niestabilność kapitalizmu, utrzymując, że wzrost gospodarczy jest chwiejny i niepewny. Zwrócił uwagę, że chociaż akumulacja bogactwa jest podstawowa w systemie wolnego rynku, nie zawsze może być możliwa. Marks uważał, że wzrastająca niestabilność będzie występować aż do upadku systemu. Marks omawiał, w jaki sposób wielkość przedsiębiorstw będzie nadal rosła z powodu inherentnej niestabilności i upadku mniejszych, niekonkurencyjnych przedsiębiorstw. Upadające przedsiębiorstwa zostaną kupione przez te odnoszące sukcesy; w związku z tym cykl wzrostu będzie kontynuowany. Zdał sobie sprawę, że tendencja do większych przedsiębiorstw jest typowa dla systemu kapitalistycznego. Marks spekulował również, że w społeczeństwie kapitalistycznym będzie miała miejsce walka klasowa. Uważał, że w miarę jak małe przedsiębiorstwa będą wypychane z rynku i przejmowane przez większe przedsiębiorstwa, struktura społeczna również ewoluuje w kierunku dwóch klas. Przewidział, że będzie jedna klasa bogatych właścicieli nieruchomości i druga klasa bezwłasnościowych pracowników. Istnieją argumenty za i przeciw ekonomicznym poglądom Marksa, ale ma on więcej krytyków niż zwolenników w krajach kapitalistycznych.
JOHN MAYNARD KEYNES (1883-1946)
John Maynard Keynes był ojcem "gospodarki mieszanej", w której rząd odgrywa kluczową rolę. Wielu uważa, że rząd nie powinien odgrywać roli w systemie kapitalistycznym, postrzegając taką rolę ze znaczną nieufnością i podejrzliwością. W rezultacie wielu uważa teorie Keynesa za tak samo obraźliwe jak teorie Marksa. Jedną z głównych zasad teorii Keynesa - sprzeczną zarówno ze Smithem, jak i Marksem - jest to, że problemy ekonomiczne w społeczeństwie kapitalistycznym nie korygują się same i że gospodarki nie mogą rosnąć w nieskończoność. Uważał, że jeśli nie ma niczego, co wspierałoby wzrost kapitału, gospodarka w depresji wymaga zewnętrznej interwencji lub substytutu wydatków kapitałowych przedsiębiorstw. Keynes uważał, że tylko interwencja rządu może wyciągnąć kraj z depresji i przywrócić gospodarkę na właściwe tory.
ALFRED MARSHALL (1842-1924)
Alfred Marshall był matematykiem, który wykorzystywał swoje wykształcenie matematyczne do wyjaśniania ekonomii. Teorie ekonomiczne Marshalla, choć bardzo rozbudowane, były postrzegane jako eklektyczne i pozbawione wewnętrznej spójności. Znany był z tego, że łączył szereg formalnych myśli i analiz ekonomicznych. Uważał, że jego prace przedstawiają szczegółowy obraz rzeczywistości ekonomicznej. Jego złożone myśli są zbyt szczegółowe, by je tutaj omawiać, ale opracował teorie wartości i dystrybucji, które łączą użyteczność krańcową z rzeczywistym kosztem. Siły stojące za zarówno podażą, jak i popytem determinują wartość. Za popytem stoi użyteczność krańcowa, która odzwierciedla się w cenach, po których dane ilości będą żądane przez nabywców. Marshall stwierdził, że za podażą stoi marginalny wysiłek i poświęcenie, odzwierciedlające się w cenach, po których dane ilości będą produkowane.
STRESZCZENIE
Oczywiście jest wielu innych znanych ekonomistów, którzy wpłynęli na badanie ekonomii. Wielu współczesnych teoretyków ekonomii wykorzystało pisma wczesnych ekonomistów do dalszego rozwoju myśli ekonomicznej. Ekonomia to nieustannie rozwijająca się nauka, a jej historia będzie się nieustannie zmieniać.
Poczta elektroniczna, czyli e-mail, to metoda komunikacji, w której osoba używa komputera lub innego urządzenia elektronicznego do pisania i wysyłania wiadomości do innej osoby. Wiadomości mogą być wysyłane za pośrednictwem systemów komputerowych połączonych siecią, przez modemy za pomocą linii telefonicznych lub, w niektórych przypadkach, za pośrednictwem transmisji bezprzewodowych. Podczas gdy niektóre systemy zapewniają łącza tylko w obrębie konkretnego systemu poczty e-mail firmy, dominującym trendem jest to, aby użytkownicy poczty e-mail mogli wysyłać wiadomości e-mail do dowolnej osoby na świecie. Aby wysłać wiadomość e-mail, każda ze stron musi mieć adres e-mail. Adres składa się z nazwy identyfikującej, znaku @, nazwy serwera plików, na którym znajduje się konto, oraz nazwy domeny. Typowe nazwy domen to com (komercyjna), gov (rządowa), edu (szkoły) i org (organizacja). Przykładem adresu e-mail jest marysmith@linc.lincoln.com. Aby wysłać wiadomość poza firmowy system poczty e-mail, należy użyć pełnego adresu. Książka adresowa: Większość systemów poczty elektronicznej oferuje funkcję książki adresowej. Książka adresowa zapewnia miejsce do przechowywania adresów e-mail, które często mogą być skomplikowane i trudne do zapamiętania. Książka adresowa może być również używana do tworzenia list mailingowych. Na przykład, jeśli sześciu znajomych często się komunikuje, użytkownik może umieścić wszystkie swoje adresy w folderze w książce adresowej. Folder będzie miał nazwę taką jak "Moi znajomi". Następnie użytkownik może szybko wysłać wiadomość do wszystkich sześciu znajomych naraz, adresując wiadomość do "Moi znajomi", a nie do każdego pojedynczego użytkownika. Załączniki: Podczas gdy większość wiadomości e-mail składa się z tekstu, użytkownicy poczty e-mail wysyłają coraz bardziej złożone wiadomości z towarzyszącymi im załącznikami. Użytkownicy mogą wysyłać dokumenty, korzystając z funkcji załącznika pakietu poczty e-mail. Funkcja załącznika pozwala użytkownikowi określić, gdzie znajduje się plik elektroniczny - taki jak dokument tekstowy, arkusz kalkulacyjny lub prezentacja graficzna - a następnie wysłać kopię pocztą e-mail. Załączniki można również wysyłać do listy osób w jednej wiadomości e-mail. Ta funkcja znacznie zwiększyła możliwość współpracy osób znajdujących się w pewnej odległości. Na przykład, jeśli dwie osoby planują prezentację na konferencji, mogą dołączyć konspekty prezentacji, a także slajdy samej prezentacji i przesłać je do przeglądu lub przeglądu. Do wiadomości e-mail można również dołączać zdjęcia, tak jak inne pliki. Należy pamiętać, że pliki multimedialne, w tym zdjęcia, mogą być dość duże i ich wysłanie zajmuje więcej czasu. Dzięki dodatkowemu wykorzystaniu aparatów cyfrowych i/lub skanerów, zdjęcia cenne dla biznesu są łatwiejsze do wysłania niż kiedykolwiek wcześniej. Usuwanie wiadomości: Po przeczytaniu przychodzącej wiadomości e-mail czytelnik może zdecydować, że nie trzeba jej zapisywać. Wszystkie systemy poczty e-mail mają funkcję umożliwiającą szybkie usuwanie wiadomości. Jednak wiele systemów przenosi usuniętą wiadomość do pliku kosza, który umożliwi jej przywołanie. Aby usunąć wiadomość z danego komputera, należy również usunąć wiadomość w pliku kosza. Nawet po tym podwójnym usunięciu wiadomość może być nadal dostępna. Duże systemy komputerowe okresowo wykonują kopie zapasowe całej poczty, więc wiadomość może krążyć w kopii zapasowej pamięci komputera organizacji przez znacznie dłuższy czas. Przekazywanie wiadomości: Czasami czytelnik wiadomości może zdecydować się na przekazanie jej osobie trzeciej. Osoba wysyłająca wiadomość e-mail nie ma kontroli nad tym, co odbiorca zrobi z wiadomością. Odbiorca może łatwo przekazać wiadomość jednej osobie lub liście osób.
Odpowiadanie na wiadomość: Jeśli czytelnik chce odpowiedzieć na wiadomość e-mail, funkcja odpowiedzi zapewnia szybki sposób na odpowiedź bez wpisywania adresu e-mail osoby, która ją wysłała. Istnieje jednak powszechne faux pas w wiadomościach e-mail, którego należy unikać. Jeśli wiadomość została wysłana na listę i jeden czytelnik odpowie osobie, która wysłała wiadomość, korzystając z funkcji odpowiedzi, odpowiedź ta może zostać wysłana do wszystkich osób na liście. Na przykład koordynator konferencji wysyła wiadomość przypominającą do listy 500 osób, które wezmą udział w konferencji. Jeden z respondentów ma pytanie, czy jego zgłoszenie dotarło i odpowiada na wiadomość, korzystając z funkcji odpowiedzi. Ponieważ oryginalna wiadomość została wysłana na listę, jest całkiem możliwe, że użycie funkcji odpowiedzi spowoduje, że wiadomość tej osoby zostanie przesłana do wszystkich 500 osób na liście, a nie tylko do pierwotnego nadawcy. Jest to powszechne naruszenie "netykiety", terminu odnoszącego się do stosowania uprzejmości w Internecie. Netykieta: Stosowanie prawidłowej etykiety pomaga ludziom prawidłowo reagować w swoim otoczeniu. Na przykład jedzenie grochu nożem, przerywanie mówcy i nieprzedstawianie osób to przykłady złej etykiety. Zła etykieta może również występować w środowisku elektronicznym. Kilka rzeczy, które można uznać za naruszenia netykiety to: flaming (wysyłanie natychmiastowej, gniewnej reakcji na wiadomość e-mail), krzyczenie (pisanie wiadomości wielkimi literami), przesyłanie wiadomości osobistych bez pozwolenia i wysyłanie wiadomości osobistych do całej listy. Inne problemy obejmują przygotowywanie listy zawierającej osoby, które nie są zainteresowane tematem i bombardowanie ich wiadomościami e-mail, wysyłanie wiadomości e-mail krytykujących innych oraz używanie emotikonów (wpisanych symboli wskazujących wyrażenia) w e-mailach biznesowych. Tak jak zrozumienie dobrych manier pomaga skutecznie poruszać się w społeczeństwie, tak zrozumienie netykiety pomaga skutecznie działać w komunikacji elektronicznej. Prywatność poczty e-mail: Jedną z kontrowersji otaczających pocztę elektroniczną jest kwestia prywatności. Termin "poczta" wydaje się sugerować te same zabezpieczenia, które obowiązują podczas korzystania z usług pocztowych Stanów Zjednoczonych. Zabezpieczenia te obejmują prawo do otwierania własnej poczty i ochronę prawną przed osobami, które mogłyby manipulować pocztą. Poczta elektroniczna może jednak nie obejmować tych zabezpieczeń. Sądy podtrzymały prawo korporacji do przeglądania poczty e-mail pracowników, którzy wykorzystują zasoby firmy, takie jak sprzęt, oprogramowanie i/lub czas firmy, do tworzenia i wysyłania wiadomości e-mail. Stanowisko sądu, że firma ma prawo do czytania poczty e-mail pracowników, jest szczególnie silne w przypadku firm, które mają wdrożoną politykę dotyczącą poczty e-mail. Pracownicy powinni rozsądnie korzystać z poczty e-mail i nie powinni umieszczać w formie elektronicznej niczego, czego nie napisaliby na papierze w celu publicznego rozpowszechniania. Zarówno osoby prywatne, jak i firmy widziały, jak ich komunikacja e-mailowa wracała, by ich prześladować w mediach i w sądzie. Na przykład niektórzy powódcy w sprawach o molestowanie seksualne wykorzystali negatywne wiadomości e-mail wysyłane przez pracowników firmy, aby ustalić prawną definicję wrogiego środowiska pracy. Inni widzieli, jak ich e-mail został uznany w sądzie za dowód ich przekonań i działań, które mogą być sprzeczne z ich zeznaniami pod przysięgą. Polityka poczty elektronicznej: Wiele organizacji wdrożyło zasady dotyczące poczty elektronicznej w miejscu pracy. Dobra polityka jasno określa oczekiwania pracodawcy dotyczące tego, jak pracownicy powinni korzystać z poczty elektronicznej. Jeśli akceptowalna jest prywatna poczta elektroniczna, warunki jej używania są określone w polityce. Ponadto należy opracować proces, dzięki któremu pracownicy będą mogli wskazać, że rozumieją obowiązującą politykę poczty elektronicznej.
Ilość wiadomości e-mail: Wielu pracowników martwi się dużą liczbą wiadomości e-mail, które otrzymują i na które muszą odpowiadać każdego dnia. Niektóre systemy poczty e-mail pozwalają nadawcy przypisać ocenę priorytetu wiadomości. W ten sposób wiadomości priorytetowe są oznaczane flagą. Inne systemy polegają na temacie wiadomości. Z tego powodu zwięzły temat wiadomości, który jasno definiuje wiadomość, jest atutem, gdy czytelnik ją przegląda. Temat wiadomości pomoże czytelnikowi zdecydować, kiedy wiadomość powinna zostać przeczytana. Wiadomość od nieznanego nadawcy bez tematu może nie zostać oceniona zbyt szybko. Organizowanie wiadomości e-mail: Gdy wiadomości e-mail dotrą, czytelnik może na nie odpowiedzieć, przesłać je dalej lub usunąć. Czytelnik może również zapisać lub zapisać wiadomości. Systemy poczty e-mail pozwalają czytelnikowi skonfigurować filtry w celu uporządkowania przychodzących wiadomości i folderów w celu uporządkowania wiadomości, które powinny zostać zapisane. Czytelnik po prostu przenosi wiadomość do odpowiedniego folderu. Ta czynność wyczyści skrzynkę odbiorczą z wiadomości i zapewni logiczny układ do lokalizowania wiadomości według nadawcy lub tematu. Szybkość odpowiedzi: Tak samo jak łatwiej jest wysłać wiadomość e-mail niż wysłać list lub, w wielu przypadkach, spróbować do kogoś zadzwonić, czas przeznaczony na odpowiedź również się skrócił. Podczas gdy list może potrzebować dwóch do trzech dni, aby dotrzeć do miejsca przeznaczenia, wiadomość e-mail jest przesyłana niemal natychmiastowo. Niewielu spodziewałoby się odpowiedzi na list w ciągu tygodnia od jego wysłania. Jednak tolerancja na powolną odpowiedź e-mail zmalała. Rzadko osoba wysyłająca wiadomość e-mail spodziewałaby się czekać dwa do trzech dni na odpowiedź. Jeśli pierwsza wiadomość e-mail nie wywoła odpowiedzi, nadawca może wysłać kolejne wiadomości lub spróbować innych środków komunikacji, jeśli nie otrzyma terminowej odpowiedzi.
Wiadomości-śmieci lub spam: Wiadomości-śmieci, czyli spam, mogą trafiać do skrzynki odbiorczej w formie listów łańcuszkowych, niezamawianych reklam, ostrzeżeń (zwykle nie popartych faktami) o wirusach lub plikach oraz innych informacji niezwiązanych z działalnością gospodarczą. Różnica między niechcianą pocztą otrzymywaną za pośrednictwem U.S. Postal Service a niechcianą pocztą otrzymywaną za pośrednictwem poczty elektronicznej polega na tym, że tę pierwszą można szybko wyrzucić. Jednak niechciana poczta otrzymywana za pośrednictwem poczty elektronicznej jest trudniejsza do usunięcia i również wiąże zasoby firmy. Niektóre korporacje stosują procedury blokowania niechcianej poczty, czyli spamu, przed przedostawaniem się do ich systemów poczty elektronicznej. Niektórzy użytkownicy uważają, że przyjaciele lub znajomi mogą być najgorszymi naruszycielami i są zbyt chętni do przekazywania niepotrzebnych informacji, które znaleźli w Internecie.
Ergonomia to nauka o dostosowaniu pracy do pracownika i dostosowywaniu środowiska pracy do potrzeb człowieka. Nadrzędnym celem ergonomii jest promowanie zdrowia i bezpieczeństwa oraz optymalizacja wydajności. Termin ergonomia pochodzi od greckich słów ergon, oznaczającego "pracę" i nomos, oznaczającego "prawa" - a zatem prawa pracy. Badania ergonomii jako sposobu na ograniczenie błędów ludzkich rozpoczęły się w wojsku podczas wojny koreańskiej. W samolotach używanych do szkolenia pilotów przycisk katapultowania był źle umieszczony, a piloci czasami przypadkowo katapultowali się - często na zbyt niskiej wysokości, aby ich spadochrony mogły się otworzyć. Zmieniono położenie przycisku i stracono mniej istnień ludzkich. Zasady ergonomii są obecnie stosowane w projektowaniu wielu elementów codziennego życia, od foteli samochodowych po narzędzia ogrodnicze. Wiele różnych zawodów jest zaangażowanych w wdrażanie tych zasad "czynnika ludzkiego" w miejscu pracy, takich jak specjaliści ds. czynników ludzkich/ergonomii; inżynierowie ds. bezpieczeństwa; higieniści przemysłowi, inżynierowie, projektanci; menedżerowie ds. zasobów ludzkich; lekarze medycyny pracy i terapeuci; oraz chiropraktycy. Badania w zakresie ergonomii są w toku. Znajomość podstawowych zasad ergonomii jest ważna zarówno dla pracowników, jak i pracodawców, ponieważ obie strony ponoszą odpowiedzialność za bezpieczne środowisko pracy. Łatwo sobie wyobrazić potencjalne zagrożenia w środowiskach produkcyjnych, w których obsługiwany jest sprzęt i obsługiwane są ciężkie materiały, ale zagrożenia istnieją również w innych środowiskach. A technologia (zwłaszcza korzystanie z komputerów) spowodowała powszechne zmiany w sposobie wykonywania pracy. Zwrócenie uwagi na zasady ergonomii pomaga zmniejszyć liczbę urazów i chorób w miejscu pracy, które skutkują kosztami odszkodowań pracowniczych, roszczeniami medycznymi i utratą czasu pracy. Wielu zaburzeniom i urazom można zapobiec, gdy warunki pracy są zaprojektowane z myślą o bezpieczeństwie i komforcie człowieka. Ludzie potrzebują szkoleń w zakresie rozpoznawania zagrożeń i problemów bezpieczeństwa, a także kontrolowania własnych zachowań w celu zapewnienia maksymalnego komfortu i zdrowia. Jednym z kluczowych zagadnień ergonomii jest możliwość regulacji elementów fizycznych. Ludzie występują w różnych kształtach i rozmiarach, a "przeciętna" konfiguracja stanowiska pracy nie będzie odpowiednia dla każdego. Wprowadzanie zmian w ciągu dnia pracy w fizycznym ustawieniu sprzętu, takich jak regulacja wysokości krzesła, może złagodzić dyskomfort i zmęczenie. Powierzchnie robocze powinny znajdować się na wygodnej wysokości w stosunku do krzesła lub pozycji stojącej. Sprzęt i powiązane przedmioty powinny być wygodnie rozmieszczone. Zawsze, gdy występuje niedopasowanie między fizycznymi wymaganiami pracy a wydolnością fizyczną pracownika, mogą wystąpić zaburzenia układu mięśniowo-szkieletowego. Osoby pracujące z intensywnym skupieniem lub z dużą prędkością często pracują w złej postawie. Kumulujące się zaburzenia urazowe (nazywane również urazami spowodowanymi powtarzalnym obciążeniem) są spowodowane powtarzaniem tego samego ruchu w niewygodnych pozycjach lub z zauważalną siłą, na przykład przy podnoszeniu ciężkich przedmiotów. Zespół cieśni nadgarstka, zaburzenie wpływające na nerwy w nadgarstku, które może spowodować trwałe upośledzenie, to schorzenie dotykające osoby wykonujące różne zawody, od przetwórców mięsa po muzyków. Ból nadgarstka może być silny, a leczenie obejmuje stosowanie szyn na nadgarstki, leków przeciwzapalnych, a nawet operację. A osoby intensywnie korzystające z komputera są szczególnie podatne na rozwój zespołu cieśni nadgarstka. Korzystanie z komputera często przyczynia się również do problemów ze wzrokiem. Postawa w pozycji stojącej i siedzącej jest ważna, aby uniknąć zaburzeń układu mięśniowo-szkieletowego. Należy zachować naturalną krzywiznę kręgosłupa, a głowa powinna być zrównoważona nad kręgosłupem. Gdy osoba siedzi:
• Stopy powinny spoczywać na podłodze, a nogi i ciało powinny tworzyć kąty 90° do 110°.
• Ciało powinno być wyprostowane, a szyja powinna być wyprostowana i podtrzymywać głowę zrównoważoną na kręgosłupie (nie wysuniętą do przodu ani skręconą na boki).
• Górne części ramion powinny być prostopadłe do podłogi; przedramiona powinny być równoległe do podłogi.
Objawy zaburzeń układu mięśniowo-szkieletowego mogą zaczynać się od drętwienia lub sztywności stawów lub mrowienia, bólu mięśni. Mogą być również widoczne bóle lub pieczenie. Często objawy postępują stopniowo, stając się poważniejsze wraz z przedłużającą się ekspozycją na stan, który je powoduje. Może to skutkować uszkodzeniem nerwów, ścięgien, stawów lub tkanek miękkich. Przy tak powszechnym korzystaniu z komputera złe nawyki pracy będą przyczyniać się do zaburzeń układu mięśniowo-szkieletowego u wielu osób, które spędzają długie godziny siedząc przy komputerze. Należą do nich:
• Niewłaściwe ustawienie nadgarstków lub nadmierna siła używana do pisania na klawiaturze
• Niewłaściwa postawa ciała i nieprawidłowa wysokość siedzenia
• Nieprawidłowo ustawiony monitor, powodujący zmęczenie oczu i problemy ze wzrokiem
• Niewłaściwe oświetlenie, powodujące odblaski na monitorach i innych powierzchniach roboczych
• Duża koncentracja, powodująca rzadkie przerwy
Poniższe akapity zawierają kilka wskazówek dotyczących warunków pracy podczas korzystania z komputera.
Krzesło: Dobrze zaprojektowane krzesło z łatwą do wdrożenia regulacją jest niezbędne. Użytkownik może zmieniać kąty oparcia pleców i siedziska, aby kontrolować stopień nacisku na uda i plecy. Ciężar powinien być równomiernie rozłożony, bez punktów ekstremalnego nacisku. Wyprostowaną postawę łatwiej osiągnąć, jeśli siedzisko jest lekko pochylone do przodu od poziomu. Gdy osoba siedzi, stopy powinny spoczywać na podłodze, a siedzisko krzesła powinno znajdować się na równi z tyłem kolana, w zakresie od 13 do 19 cali nad podłogą, w zależności od wzrostu osoby. Podnóżek można wykorzystać do zmniejszenia nacisku na uda. Potrzebne jest zarówno podparcie lędźwiowe, jak i środkowe. Podłokietniki z regulacją wysokości są pomocne dla wielu osób. Krzesło powinno mieć pięciopunktową podstawę zapewniającą stabilność i kółka ułatwiające przemieszczanie.
Klawiatura: Klawiatura stanowi podstawowy sposób interakcji z komputerem. Klawiatura powinna być ustawiona w wygodnej pozycji,a nadgarstki powinny "unosić się" nad klawiaturą podczas pisania z lekkim dotknięciem, aby nadgarstki i przedramiona pozostały proste. Chociaż podkładki pod nadgarstki są pomocne w odpoczynku, gdy nie piszesz, mogą w rzeczywistości stwarzać problemy, gdy użytkownik trzyma na nich nadgarstki podczas pisania, ponieważ nadgarstki mogą się zginać. Istnieją różne opinie na temat odpowiedniego kąta klawiatury; niektórzy wolą płaską pozycję, podczas gdy inni uważają, że odwrotne nachylenie jest wygodniejsze. Dostępne są również klawiatury dzielone i zakrzywione. Jednak najważniejszą częścią korzystania z klawiatury jest utrzymanie nadgarstków prosto w linii z przedramieniem, a nie zgiętych na bok. Gdy technologia rozpoznawania głosu stanie się powszechnie stosowana, zależność od klawiatury zostanie zmniejszona.
Mysz: Mysz powinna być umieszczona obok klawiatury, w zasięgu ręki bez wyciągania ramienia w niewygodnej pozycji. Ponownie, potrzebny jest lekki dotyk, a użytkownicy powinni unikać chwytania lub ściskania myszy. Podpórka pod nadgarstki lub regulowana platforma myszy mogą być pomocne, jeśli użytkownik zacznie mieć problemy z nadgarstkiem. Dostępne są różne kształty tych urządzeń wskazujących, a trackball może być używany w tym samym celu. Monitor: Monitor powinien znajdować się bezpośrednio przed użytkownikiem, z górną krawędzią ekranu na linii wzroku lub poniżej, 18 do 30 cali od oczu i być odchylany, aby uniknąć odblasków od górnego oświetlenia i okien. W razie potrzeby można dodać filtry antyodblaskowe. Rozmiar ekranu powinien być wystarczająco duży, aby umożliwić łatwe odczytanie rozmiarów znaków na ekranie, a częstotliwość odświeżania ekranu powinna być wystarczająco szybka, aby uniknąć widocznego migotania. Osoba może doświadczyć niewyraźnego widzenia lub zmęczenia z powodu złego kąta widzenia monitora, odbitego odblasku lub monitora niskiej jakości. Ponieważ gruczoły w powiekach wytwarzają łzy, które oczyszczają oczy, gdy powieki mrugają, a oczy się poruszają, może dojść do podrażnienia oczu, ponieważ częstotliwość mrugania ma tendencję do zmniejszania się, gdy się koncentruje. Aby uniknąć przeciążenia szyi i oczu, osoba powinna wykonać następujące czynności:
• Użyj stojaka umieszczonego blisko monitora, aby podeprzeć materiały używane podczas pracy przy komputerze.
• Użyj niższego poziomu oświetlenia, aby zmniejszyć odblaski na monitorach. Wiele starszych biur ma wysoki poziom oświetlenia, który jest niezbędny do zadań wymagających dużej ilości papieru - ale jest zbyt jasny do pracy przy komputerze. Należy używać łagodniejszego oświetlenia ogólnego lub otoczenia, a w razie potrzeby dodawać oświetlenie zadaniowe do powierzchni, aby uzyskać więcej światła.
• Rozluźnij mięśnie oczu, przenosząc ostrość z ekranu komputera na odległe obiekty na kilka sekund co 5 do 10 minut.
• Rób mikroprzerwy, aby rozciągnąć szyję, ramiona, dłonie, nadgarstki, plecy i nogi, a także odpocząć oczom. Ćwiczenia rozciągające mogą obejmować proste obroty szyi, wzruszanie ramion, zaciskanie pięści, a następnie ich rozluźnianie lub naturalne zwisanie ramion przez kilka chwil. Wstawaj i poruszaj się co około 30 minut. Jeśli to możliwe, idź na szybki spacer. Ćwiczenia z ciężarkami pomogą w rozciąganiu i zapewnią ciału ćwiczenia izometryczne.
Chociaż idealnie byłoby mieć indywidualnie regulowane regulatory temperatury, nie jest to wykonalne w wielu sytuacjach roboczych. W biurach większość ludzi czuje się komfortowo przy temperaturach na poziomie 68° do 72° zimą i 72° do 76° latem. Poziom wilgotności powinien być utrzymywany na poziomie od 40 do 60 procent nie tylko dla komfortu, ale także dla prawidłowego funkcjonowania sprzętu biurowego. Jakość powietrza w pomieszczeniach obejmuje więcej niż ogrzewanie i chłodzenie - powietrze powinno być oczyszczone z zanieczyszczeń (bakterii, kurzu, oparów itp.), a przed cyrkulacją powinno być dodawane świeże powietrze. Na wydajność systemów HVAC (ogrzewanie, wentylacja i klimatyzacja) wpływa wiele czynników. Systemy te muszą być zaprojektowane dla liczby osób i sprzętu, który ma być używany w każdym obszarze, ponieważ komputery i inne urządzenia mogą wytwarzać prawie tyle samo ciepła, ile wytwarza ludzkie ciało. Inną ważną koncepcją jest możliwość regulacji tempa pracy. Praca może wymagać przeprojektowania, aby umożliwić pracownikom wykonywanie zadań z różną prędkością lub umożliwić im rotację do różnych zadań lub stosowanie różnych metod pracy, które umożliwiają różne ruchy. Przerwy na odpoczynek są również ważne, a mikroprzerwy można robić, aby przerwać intensywne sytuacje, odpocząć ramionami i nadgarstkami lub odpocząć oczami. Wiele informacji na temat ergonomii jest dostępnych w wersji drukowanej i w Internecie, publikowanych przez organizacje takie jak Occupational Safety and Health Administration (OSHA), National Institute of Occupational Safety and Health (NIOSH), National Safety Council, Human Factors and Ergonomic Society i inne. OSHA opracowuje standardy programów ergonomii, które miały zostać opublikowane w 2000 r. (OSHA 1999). Konsultanci mogą zapewnić specjalistyczną wiedzę techniczną, aby pomóc we wszystkich fazach oceny ergonomii i wdrażaniu środków naprawczych i/lub programów szkoleniowych.
Etyka w księgowości ma ogromne znaczenie dla profesjonalistów z branży księgowej i tych, którzy polegają na ich usługach. Biegli rewidenci (CPA) i inni specjaliści z branży księgowej wiedzą, że osoby korzystające z ich usług, zwłaszcza decydenci korzystający ze sprawozdań finansowych, oczekują od nich wysokiej kompetencji, rzetelności i obiektywizmu. Osoby pracujące w dziedzinie księgowości muszą być nie tylko dobrze wykwalifikowane, ale także posiadać wysoki stopień uczciwości zawodowej. Dobra reputacja profesjonalisty jest jednym z jego najważniejszych dóbr. Ogólne standardy etyczne społeczeństwa dotyczą osób wykonujących zawody takie jak medycyna i księgowość tak samo, jak każdego innego. Jednak społeczeństwo stawia profesjonalistom jeszcze wyższe oczekiwania. Ludzie muszą mieć zaufanie do jakości złożonych usług świadczonych przez profesjonalistów. Ze względu na te wysokie oczekiwania zawody przyjęły kodeksy etyki, znane również jako kodeksy postępowania zawodowego. Te kodeksy etyczne wymagają od swoich członków utrzymania poziomu samodyscypliny wykraczającego poza wymagania przepisów prawa i regulacji.
KODEKS ETYCZNY
Dołączając do swoich organizacji zawodowych, osoby pracujące w dziedzinie księgowości zgadzają się przestrzegać wysokich standardów etycznych swojego zawodu. Każde z głównych stowarzyszeń zawodowych księgowych ma swój kodeks etyczny. Kodeks postępowania zawodowego Amerykańskiego Instytutu Księgowych (AICPA), krajowego stowarzyszenia zawodowego księgowych, określa zasady etyczne i reguły postępowania dla swoich członków. Zasady są sformułowane w sposób pozytywny i stanowią ogólne wytyczne, których księgowi (lub inni profesjonaliści) powinni przestrzegać. Zasady postępowania są znacznie bardziej szczegółowe w odniesieniu do konkretnych działań, które należy lub nie należy podejmować. Standardy postępowania etycznego Instytutu Księgowych Zarządczych (IMA) dotyczą praktyków rachunkowości zarządczej i zarządzania finansami, a Kodeks etyczny Instytutu Audytorów Wewnętrznych (IIA) dotyczy jego członków i Certyfikowanych Audytorów Wewnętrznych (CIA).
ODPOWIEDZIALNOŚĆ ETYCZNA
Cechą charakterystyczną zawodów takich jak medycyna i księgowość jest akceptacja ich odpowiedzialności wobec społeczeństwa. Kodeks postępowania zawodowego AICPA opisuje grupę docelową zawodu księgowego jako składającą się z "klientów, kredytodawców, rządów, pracodawców, inwestorów, społeczności biznesowej i finansowej oraz innych, którzy polegają na obiektywności i uczciwości księgowych, aby utrzymać prawidłowe funkcjonowanie handlu". Wielu, ale nie wszyscy, księgowi pracują w firmach świadczących usługi księgowe, audytorskie i inne usługi dla ogółu społeczeństwa; mówi się, że ci księgowi wykonują zawód publiczny. Niezależnie od tego, gdzie pracują księgowi, Kodeks AICPA ma zastosowanie do ich postępowania zawodowego, chociaż istnieją pewne specjalne przepisy dla osób wykonujących zawód publiczny. Audytorzy wewnętrzni, księgowi zarządczy i kierownicy finansowi są najczęściej pracownikami organizacji, którym świadczą te usługi; ale jako profesjonaliści oni również muszą być świadomi swoich zobowiązań wobec społeczeństwa. Obowiązki nałożone na księgowych przez trzy kodeksy etyczne i powiązane z nimi standardy zawodowe mają wiele podobieństw. Wszystkie trzy wymagają kompetencji zawodowych, poufności, uczciwości i obiektywizmu. Specjaliści ds. księgowości powinni podejmować się tylko zadań, które są w stanie wykonać z profesjonalną kompetencją, a także muszą wypełniać swoje obowiązki z należytą starannością i pilnością, zwykle określaną jako należyta staranność zawodowa lub należyta staranność. Kodeksy etyki AICPA, IMA i IIA wymagają, aby poufne informacje znane specjalistom ds. księgowości nie były ujawniane osobom trzecim. Najważniejszym wyjątkiem od zasad poufności jest to, że dokumenty robocze specjalistów ds. księgowości podlegają wezwaniu sądowemu; nie istnieje nic analogicznego do tajemnicy adwokackiej.
NIEZALEŻNOŚĆ
Zachowanie uczciwości i obiektywizmu wymaga unikania zarówno rzeczywistych, jak i pozornych konfliktów interesów. Pojęcie to określa się mianem niezależności. Bycie niezależnym w rzeczywistości i pozornie oznacza, że ktoś jest nie tylko bezstronny, bezstronny i obiektywny, ale także jest postrzegany jako taki przez innych. Chociaż dotyczy wszystkich specjalistów ds. księgowości, niezależność jest szczególnie ważna dla księgowych w praktyce publicznej. Zasady AICPA dotyczące niezależności księgowych przeprowadzających audyty są szczegółowe i techniczne. Na przykład, biegły rewident nie jest niezależny i w związku z tym nie może przeprowadzić audytu spółki, jeśli on lub ona (lub jego małżonek albo osoby na jego utrzymaniu) posiadają udziały w tej spółce i/lub łączą ich inne powiązania finansowe lub pracownicze z klientem.
EGZEKWOWANIE ETYKI
W dużym stopniu zawód księgowego jest samoregulowany przez różne stowarzyszenia zawodowe, a nie regulowany przez rząd. AICPA, IMA i IIA mają wewnętrzne środki egzekwowania kodeksów etycznych. Ponadto organizacje zawodowe dla biegłych rewidentów w każdym stanie, znane jako stanowe stowarzyszenia biegłych rewidentów, mają mechanizmy egzekwowania swoich kodeksów etycznych, które są zazwyczaj bardzo podobne do kodeksu AICPA. Naruszenia standardów etycznych mogą prowadzić do publicznego wydalenia osoby z organizacji zawodowej. Ze względu na ogromne znaczenie reputacji zawodowego księgowego, wydalenie jest silnym środkiem dyscyplinarnym. Jednak naruszenia etyki mogą prowadzić do jeszcze bardziej negatywnych konsekwencji dla biegłych rewidentów ze względu na przepisy stanowe i federalne. Rząd stanowy wydaje licencję biegłemu rewidentowi na wykonywanie zawodu, zwykle za pośrednictwem organizacji znanej jako stanowa rada ds. rachunkowości. Ponieważ przepisy stanowe regulujące wykonywanie zawodu księgowego zazwyczaj obejmują ważne części kodeksu AICPA, kodeks zyskuje w ten sposób prawną wykonalność. W konsekwencji naruszenia etyki mogą skutkować tymczasowym lub nawet stałym cofnięciem licencji CPA. Ponieważ licencjonowany CPA prawdopodobnie należy również do AICPA i stanowego stowarzyszenia CPA, dochodzenia w sprawie naruszeń etyki mogą być prowadzone wspólnie przez AICPA, stanowe stowarzyszenie i stanową radę księgową. Księgowi prowadzący praktykę publiczną, którzy audytują sprawozdania finansowe korporacji publicznych, podlegają federalnym przepisom i regulacjom dotyczącym papierów wartościowych, w tym ustawie Securities Exchange Act z 1934 r. Komisja Papierów Wartościowych i Giełd (SEC), która administruje tymi przepisami, ma szerokie uprawnienia do regulowania korporacji, które sprzedają swoje akcje publicznie. Jednym z ważnych wymogów SEC jest, aby sprawozdania finansowe tych korporacji były audytowane przez niezależnego CPA. SEC ma prawo do ustanawiania i egzekwowania standardów i procedur audytu, w tym tego, co stanowi niezależność CPA. SEC w dużej mierze delegowała ustalanie standardów sektorowi prywatnemu, ale zachowuje obowiązki nadzoru i egzekwowania. W 1998 roku SEC i AICPA wspólnie ogłosiły utworzenie Independence Standards Board (ISB), organu sektora prywatnego, którego misją jest poprawa standardów niezależności audytorów. Ogłaszając utworzenie ISB, SEC potwierdziła kluczowe znaczenie niezależności CPA:
"[U]trzymanie niezależności audytorów sprawozdań finansowych… jest kluczowe dla wiarygodności sprawozdawczości finansowej, a co za tym idzie, dla procesu tworzenia kapitału" (SEC Release FRR-50, 1998).
Jak można się spodziewać, wczesne prace na temat etyki nie koncentrowały się na ekonomii czy biznesie, ale na osobistych przekonaniach i działaniach. Z wczesnych dyskusji na temat etyki łatwo zrozumieć, że filozofowie i pisarze postrzegali etykę jako kwestię wyboru. Jednostki muszą dokonywać wyborów w swoim życiu. Ważne jest, aby to zauważyć - przedsiębiorstwa nie dokonują wyborów. Wybory są dokonywane i/lub wdrażane przez jednostki w ramach przedsiębiorstwa gospodarczego. Ludzie w rządzie dokonują wyborów, ludzie w instytucjach edukacyjnych dokonują wyborów, ludzie w przedsiębiorstwach dokonują wyborów, ludzie w kościołach dokonują wyborów; każdy jest zmuszony dokonywać wyborów, a nawet wybór, aby nie wybierać, jest decyzją.
ETYKA W ORGANIZACJI
Velasquez (1982) zilustrował kilka ważnych punktów dotyczących organizacji i ich działań w odniesieniu do jednostek w organizacji. Stwierdził:
I. Organizacja korporacyjna "istnieje" tylko wtedy, gdy (1) istnieją pewne jednostki ludzkie umieszczone w pewnych okolicznościach i (2) nasze reguły językowe stanowią, że gdy takie jednostki istnieją w takich okolicznościach, będą one uznawane za organizację korporacyjną.
II. Organizacja korporacyjna "działa" tylko wtedy, gdy (1) pewne jednostki ludzkie w organizacji wykonały pewne działania w pewnych okolicznościach i (2) nasze reguły językowe stanowią, że gdy takie jednostki wykonują takie działania w takich okolicznościach, będą one uznawane za działanie ich organizacji korporacyjnej.
Reguły językowe to reguły języka pisanego lub mówionego. W powyższym cytacie wskazano, że jednostki tworzą korporację lub firmę i że korporacja działa, gdy te jednostki wykonują swoje przypisane obowiązki w zakresie władzy korporacyjnej. Jednakże, ponieważ to jednostki ludzkie są zależne od korporacji, to właśnie te jednostki są postrzegane jako odpowiedzialne za obowiązki i kwestie moralne. Przedsiębiorstwa są najważniejszą instytucją w strukturze gospodarczej. Jako takie, od przedsiębiorstw oczekuje się, że będą produkować dobra i usługi, których żądają członkowie społeczeństwa, a po wyprodukowaniu te dobra i usługi muszą zostać rozdzielone między liczne grupy społeczne. Decyzje dotyczące tego, kto będzie produkował, ile będzie produkowane, w jaki sposób produkcja będzie wdrażana, w jaki sposób praca będzie organizowana i w jaki sposób gotowe dobro lub usługa będą udostępniane konsumentom w społeczeństwie, są podejmowane w ramach struktury gospodarczej. Wszystkie te decyzje są niezbędne w codziennym funkcjonowaniu instytucji gospodarczej, a wszystkie te wybory są podejmowane przez ludzi. Można argumentować, że modele komputerowe są wykorzystywane do podejmowania decyzji, ale można też wysunąć kontrargument, że modele komputerowe są opracowywane przez ludzi, a ludzie są tymi, którzy wdrażają zalecenia sformułowane przez modelowanie komputerowe. Aby ludzie we wszystkich instytucjach mogli dokonywać wyborów, muszą istnieć pewne wytyczne lub zasady, na których opierają się wybory. Wytyczne te są często określane jako wartości. Każdy rozwija zestaw wartości lub preferencji, począwszy od wczesnego dzieciństwa - lub być może nawet od urodzenia. Wartości te wynikają ze sposobu, w jaki ludzie są wychowywani, miejsca zamieszkania, ich pochodzenia i wszystkich innych czynników, które wpływają na życie każdego człowieka. Jeśli każdy ma system wartości, każdy musi mieć system etyczny, na którym będzie opierał osądy i wybory. Z tego osobistego zestawu wartości wyłonią się zasady i procedury, które będą kierować wszystkimi organizacjami w ramach struktury gospodarczej. Boulding (1968) argumentował, że jednostki mają "prawdziwą" etykę osobistą, którą można wywnioskować z rzeczywistego zachowania danej osoby, oraz etykę "werbalną", którą można wywnioskować z wypowiedzi danej osoby. Boulding odkrył, że jest to zasadniczo powszechne zjawisko, że osoba będzie mówić o jednym zestawie zasad etycznych, ale działać zgodnie z innym. Stare powiedzenie "Rób, co mówię, nie to, co robię" wydaje się odzwierciedlać dokładne postrzeganie rzeczywistości. Etyka, z perspektywy ekonomisty, jest kwestią wyboru. Ekonomia jest kwestią wyboru. Istnieje kilka alternatyw, spośród których należy dokonać wyboru. Właściciel firmy lub menedżer może musieć zdecydować, czy produkować broń do celów wojskowych, czy broń palną do użytku przez osoby prywatne, które zajmują się sportem polowania na dziką zwierzynę. Te decyzje nie zawsze są łatwe, szczególnie gdy kieruje nimi potrzeba organizacji osiągnięcia zysku. Wybór, który ostatecznie zostaje dokonany, opiera się na systemie wartości, który wpływa na politykę i procedury w organizacji. W środowisku ekonomicznym decyzja jest często podejmowana na podstawie wartości, które zostały uznane za najważniejsze lub które są klasyfikowane w skali od najlepszych do najgorszych. Dylematem, przed którym stoją wszyscy decydenci, zwłaszcza gdy stosuje się grupowe podejmowanie decyzji, są różne systemy wartości, które wyznają poszczególne osoby. Chociaż organizacje mają zasady i procedury, nie każda opcja, spośród której można dokonać wyboru, jest koniecznie łatwo zdefiniowana lub jasno zrozumiana. Wiele organizacji ma mechanizmy, za pomocą których osoby dotknięte decyzją mogą się od niej odwołać w celu dalszego rozpatrzenia. W przypadku studenta uniwersytetu, który otrzymał ocenę niedostateczną, ale uważa, że ocena ta była niezasłużona z powodu konfliktu z profesorem, odwołanie studenta może zostać wysłuchane i może zostać podjęta decyzja o uchyleniu decyzji profesora. Albo decyzja może zostać podjęta na korzyść profesora, a odwołanie studenta odrzucone. Taka decyzja opiera się na systemach wartości, które kierują zachowaniami etycznymi. Decyzje podejmowane przez instytucje ekonomiczne nie zawsze są zgodne z tym, co ogół społeczeństwa uważa za słuszne. Kiedy tak się dzieje, rezultatem może być nowe prawo lub przepisy, które są uchwalane w celu powstrzymania tych, którzy są postrzegani jako naruszający zaufanie publiczne. Na przykład, wiele praw zostało uchwalonych w celu ograniczenia problemów z zanieczyszczeniem. Przepisy antysmogowe mają na celu zmniejszenie szkodliwych skutków zanieczyszczenia; kiedy firma nie przestrzega prawa, może zostać surowo ukarana. W niektórych przypadkach nowe prawa wymuszają zamknięcie przedsiębiorstw, ponieważ dostosowanie się do prawa jest nieopłacalne. Tak było w przypadku, gdy weszły w życie przepisy wymagające podziemnych zbiorników na benzynę na stacjach benzynowych, aby spełnić wymagania Agencji Ochrony Środowiska. Wiele firm nie mogło spełnić wymagań z powodu związanych z tym kosztów i zamknęło swoje drzwi. W innych przypadkach firmy decydują się na naruszenie prawa, aby zaoszczędzić pieniądze. W dłuższej perspektywie może to kosztować więcej, niż firma musiałaby zapłacić, gdyby wprowadzono zmiany w celu dostosowania się do prawa. Stało się tak, gdy firma produkująca chemikalia została przyłapana na zrzucaniu niebezpiecznych odpadów do rzeki w Illinois. Firmie nakazano zaprzestanie zrzucania odpadów i ukarano ją grzywną w wysokości dużej sumy pieniędzy. Jednak w czasie, gdy inspektorzy ochrony środowiska byli na miejscu, firma zdecydowała się zrzucić więcej odpadów do rzeki, twierdząc, że gdyby tego nie zrobiła, w zakładzie mógłby dojść do śmiertelnego wypadku. Została ukarana dodatkową grzywną. Te przykłady ilustrują wybory, których muszą dokonać - nie przedsiębiorstwa w systemach gospodarczych, ale osoby fizyczne w przedsiębiorstwach. Wcześniej stwierdzono, że przedsiębiorstwa są najważniejszą instytucją w strukturze gospodarczej. Należy jednak zauważyć, że przedsiębiorstwa nie są jedynymi instytucjami w strukturze gospodarczej. Istnieje wiele innych ważnych grup, takich jak rodzina, rząd, kościoły i szkoły. Wszystkie te instytucje odgrywają ważną rolę w rozwijaniu systemów wartości i wpływów moralnych na jednostki w przedsiębiorstwach. Ponieważ wiele innych instytucji wpływa na myślenie jednostek w organizacjach, rozwijane są różne systemy wartości. Niektóre systemy wartości są niezgodne z tym, co jest niezbędne do pomyślnej działalności gospodarczej i stają się zagrożeniem dla systemu gospodarczego i biznesowego. Przykładem tego jest uczciwość. Osoba, której system wartości nie obejmuje całkowitej uczciwości, staje się zagrożeniem dla udanych operacji biznesowych. Ze względu na takie zagrożenia dla podmiotów gospodarczych, ustanawiane są zasady postępowania z osobami o innych systemach wartości. Zasady te nazywane są prawami, a rząd jest największym egzekutorem praw. Rządy są ważne dla udanych operacji biznesowych i gospodarczych. Rządy pomagają zapewnić uczciwy handel i wymianę handlową w kraju i na arenie międzynarodowej. Dobrym przykładem tego jest, gdy rząd USA nakazał kilka lat temu rozbicie Bell Telephone System. Uważano, że system stał się zbyt duży i uczciwa konkurencja nie jest możliwa. Gdy firmy stają się monopolistami, mogą ustalać ceny i kontrolować dostawy towarów i usług w sposób, który może nie być uczciwy wobec konsumentów. Rząd może interweniować, aby zapewnić uczciwe praktyki handlowe. Wiele praw zostało napisanych w celu wpłynięcia na uczciwy handel ekonomiczny.
USTAWIANIE STANDARDÓW ETYCZNYCH BIZNESU
Firmy podejmują decyzje, które wpływają na konsumentów, pracowników i społeczeństwo w ogóle. To ludzie tworzą firmy i to ludzie muszą ustalać standardy etycznego postępowania. Proces ustalania standardów musi być podejściem odgórnym - kierownictwo musi opracować i wspierać kodeks etyczny. Pracownicy muszą rozumieć, czego się od nich oczekuje, aby przestrzegać kodeksów. Menedżerowie i pracownicy muszą zostać przeszkoleni w zakresie interpretowania i rozważania alternatyw w stosunku do ustalonych kodeksów etycznych. W większych firmach często ustanawia się biura ds. zgodności, aby zapewnić przestrzeganie kodeksów etycznych. Osoby spoza firmy muszą również wiedzieć, jakie standardy etyczne są przestrzegane, i muszą wiedzieć, że osoby w firmie, które nie przestrzegają przepisanych kodeksów etycznych, zostaną potraktowane w sposób odpowiedni do naruszenia. Ilustruje to potrzebę egzekwowania kodeksów etycznych. Jeśli firma ustanowi kodeks etyczny, ale go nie wyegzekwuje, kodeks nie będzie przestrzegany.
ODPOWIEDZIALNOŚĆ SPOŁECZNA
Z kodeksami etycznymi ściśle powiązane są obowiązki przedsiębiorstw gospodarczych wobec społeczeństwa. Jest to znane jako odpowiedzialność społeczna. Jest to trudny element działalności biznesowej, ponieważ zazwyczaj oznacza dodatkowe koszty dla firmy. Odpowiedzialność społeczna może oznaczać dokonywanie wpłat na rzecz organizacji charytatywnych. Przykładem może być korporacja przekazująca ziemię, której nie wykorzystuje, grupie ochrony przyrody na potrzeby rozwoju rezerwatu przyrody. Odpowiedzialność społeczna obejmuje również wewnętrzne względy, takie jak zatrudnianie mniejszości, tworzenie na miejscu placówek opieki nad dziećmi, kontrolowanie zanieczyszczeń, zapewnianie bezpiecznych warunków pracy, zapewnianie programów antynarkotykowych dla pracowników i wytwarzanie bezpiecznych produktów. Są to wszystkie decyzje ekonomiczne, które mają skutki społeczne zarówno w firmie, jak i poza nią. Firmy, którym zależy na odpowiedzialności społecznej, przeprowadzą audyty społeczne. Jest to systematyczna ocena postępów organizacji w kierunku wdrażania programów odpowiedzialnych społecznie. Nie jest to ścisła nauka i zależy od interpretacji tego, co jest zachowaniem odpowiedzialnym społecznie. Ponownie, decyzje te muszą być podejmowane przez osoby w firmie. Audyty społeczne ilustrują, że firma jest przynajmniej zaniepokojona swoim wpływem społecznym.
STRESZCZENIE
Etyka nie jest łatwa dla żadnego biznesu i zawsze będą jednostki i/lub grupy, które kwestionują zachowania instytucji w naszym systemie gospodarczym. Nasza dyskusja skupiła się na biznesie w systemie gospodarczym, ale inne systemy, takie jak kościoły, szkoły i agencje rządowe, również podlegają krytycznej kontroli etycznej. Etyka i odpowiedzialność społeczna są przedmiotem troski każdego, a to jednostki muszą ustanowić kodeksy etyczne i ich przestrzegać.
Etyka ogólnie rzecz biorąc dotyczy ludzkich zachowań, które są akceptowalne lub "właściwe" i które nie są akceptowalne lub "niewłaściwe" w oparciu o konwencjonalną moralność. Ogólne normy etyczne obejmują prawdomówność, uczciwość, integralność, szacunek dla innych, uczciwość i sprawiedliwość. Odnoszą się do wszystkich aspektów życia, w tym biznesu i finansów. Etyka finansowa jest zatem podzbiorem etyki ogólnej. Normy etyczne są niezbędne do utrzymania stabilności i harmonii w życiu społecznym, w którym ludzie wchodzą ze sobą w interakcje. Rozpoznawanie potrzeb i aspiracji innych, uczciwość i wspólne wysiłki w celu rozwiązania wspólnych problemów to na przykład aspekty zachowań społecznych, które przyczyniają się do stabilności społecznej. W procesie ewolucji społecznej rozwinęliśmy nie tylko instynkt troski o siebie, ale także sumienie troski o innych. Mogą pojawić się sytuacje, w których potrzeba troski o siebie wchodzi w konflikt z potrzebą troski o innych. W takich sytuacjach normy etyczne są potrzebne, aby kierować naszym zachowaniem. Jak ujął to Demsey (1999): "Etyka stanowi próbę rozwiązania konfliktu między egoizmem a bezinteresownością; między naszymi potrzebami materialnymi a naszym sumieniem". Dylematy etyczne i naruszenia etyki w finansach można przypisać niespójności w ramach pojęciowych współczesnej teorii finansowo-ekonomicznej i powszechnemu stosowaniu modelu relacji zleceniodawca-podmiot w transakcjach finansowych. Teoria finansowo-ekonomiczna, która leży u podstaw współczesnego systemu kapitalistycznego, opiera się na paradygmacie racjonalnego-maksymalizatora, który zakłada, że jednostki są samolubne (egoistyczne) i zachowują się racjonalnie, gdy dążą do maksymalizacji własnych interesów. Model relacji zleceniodawca-podmiot odnosi się do układu, w którym jedna strona, działając jako agent drugiej strony, wykonuje pewne funkcje w imieniu tej drugiej strony. Takie układy są integralną częścią współczesnego systemu ekonomiczno-finansowego i trudno sobie wyobrazić, aby funkcjonował bez nich. Założenie behawioralne współczesnej teorii finansowo-ekonomicznej jest sprzeczne z ideami godności zaufania, lojalności, wierności, opieki i troski o innych, które leżą u podstaw tradycyjnej relacji zleceniodawca-agent. Tradycyjna koncepcja agencji opiera się na wartościach moralnych. Ale jeśli ludzie są racjonalnymi maksymalizatorami, to agencja w imieniu innych w tradycyjnym sensie jest niemożliwa. Jak wyjaśnia Duska (1992): "Zrobienie czegoś dla kogoś innego w systemie nastawionym na maksymalizację własnego interesu jest głupotą. Taka odpowiedź wskazuje jednak na niespójność w samym sercu systemu, ponieważ system, który ma zasady wymagające od agentów dbania o innych, podczas gdy zachęca jednostki do dbania tylko o siebie, niszczy praktykę dbania o innych" . Dylemat etyczny przedstawiony przez problem sprzecznych interesów został rozwiązany w niektórych obszarach finansów, takich jak ład korporacyjny, poprzez przekształcenie relacji agencyjnej w czysto kontraktową relację, która wykorzystuje podejście kija i marchewki w celu zapewnienia etycznego zachowania agentów. W zarządzaniu korporacyjnym problem konfliktu między kierownictwem (agentem) a akcjonariuszami (zleceniodawcą) jest opisywany jako problem agencyjny. Ekonomiści opracowali teorię agencyjną, aby poradzić sobie z tym problemem. Teoria agencyjna zakłada, że zarówno agent, jak i zleceniodawca są zainteresowani sobą i dążą do maksymalizacji zysków w swojej relacji. Prostym przykładem byłby przypadek kierownika sklepu działającego jako agent właściciela sklepu. Kierownik sklepu chce jak największej pensji za jak najmniejszą pracę, a właściciel sklepu chce jak najwięcej pracy od kierownika za jak najmniejszą płacę. Ta teoria jest wolna od wartości, ponieważ nie ocenia, czy zachowanie maksymalizacyjne jest dobre czy złe i nie interesuje się tym, jaka może być sprawiedliwa płaca dla kierownika. Wyrzuca idee uczciwości i lojalności ze stosunku agencyjnego ze względu na ich niezgodność z podstawowym założeniem racjonalnej maksymalizacji. "Zadaniem teorii agencyjnej jest pomoc w opracowaniu technik opisu konfliktu inherentnego w stosunku zleceniodawca-zleceniobiorca i kontrolowanie sytuacji tak, aby zleceniodawca, działając w swoim własnym interesie, wyrządził jak najmniej szkody interesom zleceniodawcy". Teoria agencyjna przekształca tradycyjną koncepcję stosunku agencyjnego w ustrukturyzowany (umowny) stosunek, w którym zleceniodawca może wpływać na działania zleceniodawców za pomocą zachęt, motywacji i schematów kar. Zleceniodawca zasadniczo wykorzystuje nagrody pieniężne, kary i prawa agencyjne, aby wymusić lojalność ze strony zleceniodawcy. Większość naszych potrzeb w zakresie usług finansowych - zarządzanie oszczędnościami emerytalnymi, inwestowanie w akcje i obligacje oraz ochrona przed nieprzewidzianymi zdarzeniami, aby wymienić tylko kilka - jest taka, że lepiej powierzyć je innym, ponieważ nie mamy ani zdolności, ani czasu, aby skutecznie je realizować. Korporacyjne narzędzie kontraktualizacji relacji agencyjnej jest jednak zbyt trudne do zastosowania w przypadku mnogości transakcji finansowych między osobami fizycznymi i instytucjami, które mają miejsce na rynku finansowym każdego dnia. Osoby fizyczne nie są tak dobrze zorganizowane jak akcjonariusze i często nie zdają sobie sprawy z problemu agencji. Brak informacji ogranicza również ich zdolność do monitorowania zachowań agenta. Dlatego w naszym złożonym nowoczesnym systemie ekonomicznym mamy do czynienia z sytuacją paradoksalną: z jednej strony stale rosnącą potrzebą, aby inni wykonali zadania, a z drugiej strony opisem natury ludzkiej, który podkreśla egoistyczne zachowanie. Ta paradoksalna sytuacja lub niespójność w fundamentach nowoczesnego systemu kapitalistycznego może wyjaśnić większość problemów etycznych i spadającą moralność na arenie nowoczesnego biznesu i finansów.
NARUSZENIA ETYCZNE
Najczęściej występujące naruszenia etyczne w finansach dotyczą obrotu informacjami poufnymi, interesów interesariuszy kontra interesy akcjonariuszy, zarządzania inwestycjami i finansowania kampanii. Biznes w ogóle, a rynki finansowe w szczególności, obfitują w przykłady naruszeń zaufania i lojalności zarówno w transakcjach publicznych, jak i prywatnych. Oszukańcze transakcje finansowe, handel wpływami i korupcja w rządach, brokerzy nieprowadzący prawidłowej ewidencji transakcji klientów, oszukiwanie klientów w zakresie zysków z transakcji, nieautoryzowane transakcje, handel informacjami poufnymi, niewłaściwe wykorzystanie środków klientów w celu osiągnięcia osobistych korzyści, błędne wycenianie transakcji klientów oraz korupcja i kradzież w bankowości stały się powszechnymi zjawiskami. Handel informacjami poufnymi jest prawdopodobnie jednym z najbardziej nagłośnionych nieetycznych zachowań traderów. Handel informacjami poufnymi odnosi się do handlu papierami wartościowymi spółki w celu wykorzystania istotnych "wewnętrznych" informacji o spółce, które nie są dostępne publicznie. Taki handel jest motywowany możliwością wygenerowania nadzwyczajnego zysku przy pomocy informacji niepublicznych (informacji, które nie zostały jeszcze ujawnione). Daje to traderowi nieuczciwą przewagę nad innymi traderami w tym samym papierze wartościowym. Handel informacjami poufnymi był legalny w niektórych krajach europejskich do niedawna. W Stanach Zjednoczonych ustawa Trading Sanctions Act z 1984 r. uznała za nielegalne handel papierami wartościowymi, będąc w posiadaniu istotnych informacji niepublicznych. Prawo dotyczy zarówno osób mających dostęp do informacji poufnych, jak i osób, z którymi dzielą się takimi informacjami. Finansowanie kampanii w Stanach Zjednoczonych jest głównym źródłem obaw opinii publicznej, ponieważ podnosi kwestię konfliktu interesów urzędników wybieralnych w odniesieniu do osób lub grup lobbingowych, które finansują ich kampanie. Stany Zjednoczone mają długą historię reformy finansowania kampanii. Federal Election Commission (FEC) administruje i egzekwuje federalne ustawy dotyczące finansowania kampanii uchwalane przez Kongres od czasu do czasu. Wiele stanów uchwaliło również ustawy dotyczące lobbingu i finansowania kampanii oraz powołało komisje etyczne w celu egzekwowania tych ustaw.
KODEKS ETYCZNY
Podejścia do rozwiązywania problemów etycznych w finansach obejmują zarówno ustanawianie kodeksów etycznych dla profesjonalistów finansowych, jak i wysiłki mające na celu zastąpienie paradygmatu racjonalnego-maksymalizatora (egoistycznego), który leży u podstaw współczesnego systemu kapitalistycznego, paradygmatem, w którym jednostki są uważane za altruistyczne, uczciwe i zasadniczo cnotliwe. Nie jest niczym niezwykłym znalezienie ustalonych kodeksów etycznych i biur etycznych w amerykańskich korporacjach i na rynkach finansowych. Kodeksy etyczne dla rynków finansowych są ustanawiane przez oficjalne agencje regulacyjne i organizacje samoregulujące w celu zapewnienia etycznie odpowiedzialnego zachowania ze strony operatorów na rynkach finansowych. Jedną z najważniejszych i najpotężniejszych oficjalnych agencji regulacyjnych dla branży papierów wartościowych w Stanach Zjednoczonych jest Komisja Papierów Wartościowych i Giełd (SEC). Odpowiada ona za wdrażanie federalnych przepisów dotyczących papierów wartościowych i jako taka ustanawia zasady i regulacje dotyczące właściwego postępowania profesjonalistów działających w ramach swojej jurysdykcji regulacyjnej. Wielu profesjonalistów odgrywa rolę w branży papierów wartościowych, wśród których najważniejsi to księgowi, maklerzy-dealerzy, doradcy inwestycyjni i firmy inwestycyjne. Każde niewłaściwe lub nieetyczne zachowanie tych profesjonalistów jest bardzo niepokojące dla SEC, której głównym obowiązkiem jest ochrona interesów inwestorów i utrzymanie integralności rynku papierów wartościowych. SEC może naganić, zawiesić lub zakazać wykonywania zawodu profesjonalistom, którzy działają w ramach jej domeny regulacyjnej, z powodu braku wymaganych kwalifikacji lub nieetycznego i niewłaściwego postępowania. SEC nadzoruje również organizacje samoregulacyjne (SRO), do których należą giełdy papierów wartościowych, National Association of Security Dealers (NASD), Municipal Securities Rulemaking Board (MSRB), agencje rozliczeniowe, agenci transferowi i podmioty przetwarzające informacje o papierach wartościowych. SRO to organizacja członkowska, która tworzy i egzekwuje zasady dla swoich członków na podstawie federalnych przepisów dotyczących papierów wartościowych. SEC ma obowiązek przeglądania i zatwierdzania zasad ustanowionych przez SRO. Inne agencje tworzące przepisy obejmują Federal Reserve System, Federal Deposit Insurance Corporation (FDIC) i stanowe organy finansowe. Kongres powierzył Radzie Rezerwy Federalnej odpowiedzialność za wdrażanie przepisów dotyczących szerokiego zakresu działalności bankowej i finansowej, zadanie, które wykonuje za pośrednictwem swoich przepisów. Jedno z takich rozporządzeń dotyczy nieuczciwych lub oszukańczych działań lub praktyk. FDIC ma własne zasady i regulacje dla sektora bankowego, a także czerpie swoją władzę regulacyjną z różnych ustaw bankowych uchwalonych przez Kongres. Oprócz federalnych i stanowych agencji regulacyjnych, różne stowarzyszenia zawodowe ustalają własne zasady dobrego postępowania dla swoich członków. Amerykański Instytut Certyfikowanych Księgowych (AICPA), Amerykański Instytut Certyfikowanych Planistów (AICP), Instytut Firm Inwestycyjnych (ICI), Amerykańskie Stowarzyszenie Chartered Life Underwriters (ASCLU), Instytut Chartered Financial Analysts (ICFA), Krajowe Stowarzyszenie Oficerów Kredytów Bankowych i Kredytowych (znane również jako Robert Morris Associates) oraz Stowarzyszenie Zarządzania Inwestycjami i Badań (AIMR) to niektóre ze stowarzyszeń zawodowych, które mają dobrze nagłośnione kodeksy etyki.
W KIERUNKU ZMIANY PARADYGMATU
Podjęto wysiłki, aby rozwiązać problemy etyczne w biznesie i finansach, ponownie badając podstawy koncepcyjne współczesnego systemu kapitalistycznego i zmieniając je na takie, które są zgodne z tradycyjnym modelem relacji agencyjnej. Zwolennicy zmiany paradygmatu kwestionują założenie racjonalnego maksymalizatora, które leży u podstaw współczesnej teorii finansowo-ekonomicznej, i odrzucają ideę, że wszystkie ludzkie działania są motywowane własnym interesem. Przyjmują alternatywne założenie - że ludzie są w pewnym stopniu etyczni i altruistyczni - i podkreślają rolę tradycyjnej relacji zleceniodawca-zleceniobiorca opartej na uczciwości, lojalności i zaufaniu. Duska (1992) argumentuje: Oczywiste jest, że [Adam] Smith i ekonomiści mają rację w pewnym stopniu. Ludzie są egoistyczni i nie zawsze będą dbać o interesy innych. Ale są chwile, kiedy odłożą swoje interesy na bok, aby działać w imieniu innych. Sytuacje agencyjne zostały przypuszczalnie stworzone, aby zagwarantować te czasy.′′ Pomysł, że istoty ludzkie mogą być uczciwe i altruistyczne jest założeniem empirycznie słusznym; nie jest trudno znaleźć przykłady uczciwości i altruizmu zarówno w kontaktach prywatnych, jak i publicznych. Nie ma powodu, dla którego nie należałoby przyjąć i pielęgnować tej idei. Jak zauważa Bowie (1991): "Dbanie o siebie jest naturalnym, silnym motywem, który potrzebuje niewielkiego, jeśli w ogóle, wzmocnienia społecznego … Motywy altruistyczne, nawet jeśli są również naturalne, nie są tak silne: muszą być wzmacniane społecznie i pielęgnowane" . Jeśli teoria finansowo-ekonomiczna zaakceptuje fakt, że motywacje behawioralne inne niż maksymalizacja bogactwa są zarówno realistyczne, jak i pożądane, wówczas problem agencji, z którym ekonomiści próbują sobie poradzić, nie będzie problemem. Dla Dobsona (1993) prawdziwą rolę etyki w finansach można odnaleźć w akceptacji "wewnętrznego dobra" ("dobra" w znaczeniu "słusznego", a nie "fizycznego produktu"), które, jak dodaje, jest tym, co klasyczni filozofowie opisują jako "cnotę" - to znaczy wewnętrzne dobro, do którego powinny dążyć wszelkie ludzkie wysiłki. Twierdzi on: "Gdyby osiągnięcie dóbr wewnętrznych zostało powszechnie zaakceptowane jako ostateczny cel wszelkich ludzkich wysiłków, zarówno osobistych, jak i zawodowych, wówczas rynki finansowe stałyby się prawdziwie etyczne".
Nowe technologie w przetwarzaniu informacji często budzą obawy etyczne, ponieważ stwarzają nowe możliwości dla ludzkiego działania. Etykę komputerową można zdefiniować jako filozofię moralną dotyczącą dylematów etycznych związanych z obszarami przetwarzania informacji, w tym teoriami, podejściami w sytuacjach podejmowania decyzji i metodami zwiększania świadomości etyki. Te kwestie etyczne i moralne należą do najważniejszych społecznie aspektów przetwarzania informacji. Istnieją dwa główne problemy w tym obszarze: (1) nieetyczne zachowanie prowadzące do niemoralnych czynów, takich jak tworzenie wirusów i piractwo oprogramowania oraz (2) brak świadomości na temat bezpieczeństwa technologii informatycznych i przestępstw związanych z technologią informacyjną . Etyka w przetwarzaniu informacji jest uważana za tak ważną, że Computer Ethics Institute opracował następujące Dziesięć Przykazań Etyki Komputerowej.
Nie będziesz używać komputera, aby szkodzić innym ludziom.
Nie będziesz ingerować w pracę komputera innych ludzi.
Nie będziesz grzebać w plikach komputerowych innych ludzi.
Nie będziesz używać komputera do kradzieży.
Nie będziesz używać komputera do składania fałszywych zeznań.
Nie będziesz kopiować ani używać zastrzeżonego oprogramowania, za które nie zapłaciłeś.
Nie będziesz używać zasobów komputerowych innych ludzi bez zezwolenia lub odpowiedniego wynagrodzenia.
Nie będziesz przywłaszczać sobie intelektualnej produkcji innych ludzi.
Będziesz myśleć o społecznych konsekwencjach programu, który piszesz, lub systemu, który projektujesz.
Zawsze będziesz używać komputera w sposób, który zapewnia uwzględnienie i szacunek dla innych ludzi.
ETYKA PRZETWARZANIA INFORMACJI I BIZNES
Kwestie etyczne związane z przetwarzaniem informacji w biznesie obejmują poufność danych, piractwo komputerowe, hakowanie i kradzież cudzej własności. Aby określić wiedzę etyczną i zachowanie młodych ludzi, przeprowadzono ankietę wśród 780 uczniów szkół średnich i studentów biznesu . Ankieta dotycząca wiedzy etycznej składała się z dziewiętnastu pytań, z których sześć dotyczyło przetwarzania informacji przedstawionych w Tabeli.
Wszystkie działania w Tabeli są nieetyczne. Odpowiedzi przedstawione w tabeli pokazują, że wśród młodych ludzi istnieją problemy etyczne. Jak widać, niektórzy nie rozpoznają dylematów etycznych, a wielu mimo wszystko brałoby udział w nieetycznym zachowaniu. Na przykład ujawnianie poufnych informacji, kradzież pomysłów innych, kopiowanie oprogramowania i odbijanie zegara z domu to zachowania nieetyczne. Nieautoryzowane kopiowanie oprogramowania - piractwo komputerowe - jest kradzieżą. Oprócz tego, że jest to w wielu krajach całkowicie nielegalne, jest to moralnie złe, ponieważ narusza prawo właścicieli oprogramowania do otrzymywania zapłaty za korzystanie z ich wynalazku. Nielegalne oprogramowanie stanowi ponad 90 procent całego oprogramowania używanego w niektórych krajach azjatyckich, co najmniej 75 procent w Europie Wschodniej i mniej niż 33 procent w Stanach Zjednoczonych . Ponadto, według badania Computerworld przeprowadzonego wśród 255 profesjonalistów systemów informatycznych w korporacyjnej Ameryce, 53 procent wykonało nieautoryzowane kopie komercyjnego oprogramowania ("Wyniki badania", 1995). Typowym powodem podawanym było wypróbowanie go przed zakupem. Hakerstwo i tworzenie wirusów to poważne przestępstwa, które należy traktować tak samo jak inne przestępstwa. Mówiąc ogólnie, hakowanie to włamanie się do cudzej własności; jest to niemoralne działanie, którego nie można usprawiedliwić w żadnych okolicznościach. Jednym z najpopularniejszych argumentów hakerów jest to, że "elektrony są wolne - nie należą do nikogo". Ta przesłanka jest nieważna; nie ma powodu, dla którego przestępstwa elektryczne miałyby być traktowane inaczej niż przestępstwa fizyczne. Informacje w sieci, w tym tysiące baz danych i ponad czterysta czasopism, są niezwykle trudne do kontrolowania. Wyszukiwarki lub roboty zostały zaprojektowane w celu wyszukiwania określonych informacji w tym ogromnym zbiorze danych. Kiedy wyszukiwarka filtruje lub kontroluje wszystkie informacje, do których uzyskuje dostęp dana osoba, istnieje niebezpieczeństwo, że pogląd tej osoby na dany temat zostanie zawężony . Daje to projektantom wyszukiwarek możliwość manipulowania umysłami ludzi poprzez kontrolowanie otrzymywanych przez nich informacji. Ponadto zakupy online stwarzają możliwość ujawnienia informacji finansowych, takich jak informacje o kartach kredytowych, osobom nieupoważnionym. Pojawiły się pytania dotyczące grafiki komputerowej. Na przykład, czy graficzne odtworzenia zdarzeń, takich jak wypadki samochodowe, powinny być dozwolone w salach sądowych? Czy jest właściwe, aby jednostka elektronicznie odtwarzała, a następnie zmieniała obraz artystyczny pierwotnie stworzony przez kogoś innego. Oczywiste jest, że powinny istnieć jasne zasady i regulacje dotyczące cyberprzestrzeni
ETYKA I ETYKIETA PRZETWARZANIA INFORMACJI
Uprzejmość w przetwarzaniu informacji jest często określana jako netykieta - lub etykieta w Internecie. Etykieta poczty elektronicznej i czatów jest kluczowa dla uprzejmości w cyberprzestrzeni. W obu sytuacjach ludzie powinni przestrzegać Złotej Zasady: "Postępuj wobec innych tak, jak chciałbyś, aby oni postępowali wobec ciebie". W odniesieniu do poczty elektronicznej należy szybko odpowiadać na wiadomości e-mail; dwa razy się zastanowić, zanim wyśle się informacje osobiste i prywatne listy w systemach biznesowych; nie wysyłać poczty flame mail (poczty pisanej w gniewie); nie wysyłać duplikatów prywatnej poczty e-mail bez poinformowania odbiorcy, kto jeszcze ją otrzymuje; i nie wysyłać niezamawianej poczty, takiej jak piramidy finansowe, listy łańcuszkowe i poczta śmieciowa. Szkoły i pracodawcy powinni ustalić zasady dotyczące poczty e-mail, przedstawić je na piśmie i zorganizować sesje szkoleniowe dla wszystkich zaangażowanych. Brak zasad dotyczących poczty e-mail stwarza ryzyko prawne. Często firma odpowiada za pocztę e-mail swoich pracowników. Ponadto poczta e-mail nie jest bezpiecznym medium. Wiele oświadczeń dotyczących polityki firmy mówi, że e-mail jest własnością lub współwłasnością firmy i że firma ma prawo do jego wglądu. Federalna ustawa o ochronie prywatności komunikacji elektronicznej z 1986 r. zabrania przechwytywania jakiejkolwiek komunikacji przewodowej, ustnej lub elektronicznej, ale istnieje wyjątek biznesowy od tej ustawy, który pozwala pracodawcom przechwytywać taką komunikację, która jest uznawana za związaną z pracą. Etykieta czatu obejmuje komunikowanie się z innymi osobami przez Internet. Należy przestrzegać tej samej etykiety, która obowiązuje w rozmowach osobistych. Anonimowość nie usprawiedliwia złego zachowania.
ETYKA PRZETWARZANIA INFORMACJI I PORNOGRAFIA
Obecnie pornografia komputerowa oznacza przedstawienie rzeczywistego kontaktu seksualnego (hardcore) i przedstawienie nagości lub lubieżnej ekspozycji (softcore). Sądy i liczne ustawy USA zgadzają się z rozróżnieniem pornografii hard-core i soft-core. Jednak nie każda pornografia spełnia prawny test obsceniczności, ani nie wszystkie przedstawienia aktywności seksualnej są uznawane za pornograficzne . Pornografia i obsceniczność z pewnością rodzą kilka pytań moralnych: Czy materiały pornograficzne są moralnie naganne, czy nie? Czy państwo ma prawo regulować dostęp do materiałów pornograficznych przez osoby dorosłe za ich zgodą? W całym tym zamieszaniu należy poruszyć jedną kwestię: Pornografia poniża istoty ludzkie. Feministki uważają pornografię za poniżającą dla kobiet, przyczyniając się do postrzegania ich jako obiektów pożądania i kontroli przez mężczyzn. Niektórzy przywódcy religijni twierdzą, że pornografia powinna zostać zakazana, ponieważ jest moralnie zła. Tymczasem pornografia nadal stanowi ogromną siłę w kontekście społecznym i osobistym
KODEKS ETYCZNY W PRZETWARZANIU INFORMACJI
Należy wziąć pod uwagę następujące wytyczne podczas opracowywania kodeksów etycznych dla szkół i firm:
1. Określ dominujące wartości społeczne przed zajęciem się bieżącymi problemami w szkole lub miejscu pracy. Przykłady wartości etycznych ważnych dla społeczeństwa mogą obejmować wiarygodność, odpowiedzialność, szacunek, empatię, uczciwość i obywatelstwo.
2. Podczas tworzenia kodeksu etycznego podaj przykłady zachowań odzwierciedlających każdą wartość.
3. Poproś kluczowych członków organizacji o przejrzenie kodeksu i dostarczenie informacji.
4. Przejrzyj wszelkie zasady lub wartości zawarte w kodeksie, aby upewnić się, że są one zgodne z odpowiednimi przepisami i regulacjami; zapewnia to, że szkoła lub organizacja nie łamie żadnego z nich.
5. Wskaż, że od wszystkich pracowników oczekuje się przestrzegania wartości określonych w kodeksie etycznym.
6. Ogłoś i rozpowszechnij nowy kodeks etyczny wszystkim zaangażowanym.
7. Aktualizuj kodeks co najmniej raz w roku.
Przykłady tematów zwykle poruszanych w kodeksach etycznych obejmują: odpowiedni ubiór, unikanie nielegalnych narkotyków, przestrzeganie instrukcji przełożonych, bycie niezawodnym i punktualnym, zachowanie poufności, nieprzyjmowanie osobistych prezentów od interesariuszy, unikanie dyskryminacji ze względu na rasę, płeć, wiek lub orientację seksualną, unikanie konfliktów interesów, przestrzeganie przepisów i regulacji, niekorzystanie z majątku organizacji do celów osobistych oraz zgłaszanie działań niezgodnych z prawem lub budzących wątpliwości. Przykłady tematów zwykle poruszanych w kodeksach etycznych obejmują: odpowiedni ubiór, unikanie nielegalnych narkotyków, przestrzeganie instrukcji przełożonych, bycie niezawodnym i punktualnym, zachowanie poufności, nieprzyjmowanie osobistych prezentów od interesariuszy, unikanie dyskryminacji ze względu na rasę, płeć, wiek lub orientację seksualną, unikanie konfliktów interesów, przestrzeganie przepisów i regulacji, niekorzystanie z majątku organizacji do celów osobistych oraz zgłaszanie działań niezgodnych z prawem lub budzących wątpliwości.
NAUCZANIE ETYKI PRZETWARZANIA INFORMACJI
Ludzie zaczynają uczyć się wartości etycznych od urodzenia w sposób bezpośredni i pośredni. Podczas gdy rodzina i instytucje religijne są przypisane do głównej odpowiedzialności za edukację etyczną, szkoły tradycyjnie były obciążone nauczaniem i wzmacnianiem wartości moralnych, zwłaszcza tych bezpośrednio związanych z zachowaniami szkolnymi. Ponieważ wiele problemów etycznych związanych z technologią dotyczy zachowań szkolnych, są one odpowiednią i konieczną częścią programu nauczania. Szkoły muszą tworzyć środowiska technologiczne, które pomagają uczniom unikać pokus. Ekrany komputerowe, które można łatwo monitorować, korzystanie z haseł i logowanie się i wylogowywanie z bezpiecznych systemów sieciowych, wraz z nagrywaniem wideo obszarów laboratoryjnych, wszystko to pomaga wyeliminować możliwości niewłaściwego wykorzystania technologii w centrum multimedialnym lub klasie. Nauczyciele i liderzy grup studenckich, którzy chcą promować dobre zachowanie etyczne, mogą stosować takie metody, jak tworzenie kodeksów etycznych, wykorzystywanie historii dobrego lub złego zachowania etycznego jako przykładów w dyskusjach, zapraszanie mówców i wykorzystywanie studiów przypadków, odgrywanie ról, gier, symulacji i procesów pozorowanych. Najważniejszym jest zachowanie nauczyciela lub lidera studenckiego, które powinno być wzorowe. Uprawnienia technologiczne nie powinny być przyznawane uczniom, dopóki nie wykażą, że znają i potrafią stosować normy etyczne i zasady szkoły. Na koniec należy podjąć działania w celu poprawy rozwiązań dylematów etycznych, które pojawiają się w przetwarzaniu informacji. Istnieje potrzeba bardziej szczegółowych wytycznych zawodowych i kodeksów etycznych; badań nad problemami etycznymi; edukacji i szkoleń; oraz współpracy wszystkich osób zaangażowanych w etykę przetwarzania informacji, w tym, ale nie wyłącznie, teologów, filozofów, informatyków, edukatorów, ludzi biznesu i prawników.
Niniejszy artykuł dotyczy problemów etycznych w prawie w kontekście działalności biznesowej. Prawnik jest zawodowo wykwalifikowany do udzielania przedsiębiorcom porad na temat tego, czym jest prawo; sędziowie są upoważnieni do decydowania, czym jest prawo; a ustawodawcy, w granicach Konstytucji, mogą tworzyć prawo. Organizacje religijne i inne organizacje składają wiele oświadczeń na temat tego, co jest etyczne, ale jeśli normy etyczne nie zostaną zapisane w prawie, nie będą egzekwowalne i w pewnym stopniu pozostaną kwestią osobistej opinii. Niniejszy artykuł ma na celu poruszenie kwestii etyki prawnej dla biznesu, które mogą być omawiane i dyskutowane. Zapewnia również ramy Arystotelesa, które pomogą w dyskusji na temat określenia najbardziej etycznego kursu. W każdym przypadku można zadać następujące pytania:
1. Jakie są wybory etyczne przy podejmowaniu tej decyzji?
2. Czy prawo wymaga od przedsiębiorcy dokonywania wyborów etycznych?
3. Czy prawo powinno wymagać od przedsiębiorcy dokonywania wyborów etycznych?
CZYM JEST PRAWO?
Prawo dla biznesu składa się z zestawu wymaganych norm zachowania. Istotą prawa jest to, że nakazuje zachowanie pod groźbą kary lub sankcji. Prawo podatkowe wymaga zapłaty pieniędzy rządowi; nie ma wyboru. Umowy są zawierane dobrowolnie, ale po zawarciu mogą być egzekwowane przez sądy. Wiele praw nie ma szczególnej treści etycznej. Wiele praw wymaga etycznego zachowania, a w rzadkich przypadkach niektóre prawa mogą wymagać nieetycznego zachowania. Często prawo pozwala przedsiębiorcy wybrać, czy będzie etyczne, czy nieetyczne. W takich przypadkach pojawia się pytanie: czy prawo powinno wymagać etycznego zachowania?
CZYM JEST ETYKA?
Greckie słowo ethos oznacza "nawyk". Grecki filozof Arystoteles nauczał, że etyczna osoba to taka, która ma cnotliwe nawyki. Wśród cnót znajdują się odwaga, umiarkowanie, honor, dobry humor, prawdomówność i sprawiedliwość. Cnót można się nauczyć poprzez edukację i praktykę. Arystoteles uważał, że cnoty i wynikającego z niej etycznego zachowania można się nauczyć. Następnie powiedział, że wszyscy dążymy do "dobrego życia", które pojawia się, gdy żyjemy w społeczeństwie osób etycznych - to znaczy tych, które zachowują się cnotliwie. Ta filozofia może służyć jako model do naszej dyskusji. Musimy zdecydować, jakie są elementy "dobrego życia" (bogactwo, bezpieczeństwo, wolność, możliwości). Następnie, co w danej sytuacji biznesowej byłoby etyczne (cnotliwe zachowanie) i czy prawo wymaga lub powinno wymagać etycznego zachowania? W poniższych akapitach rozważane są obszary prawa biznesowego, które mają problemy etyczne. Czytelnik jest zaproszony do zbadania tych problemów w świetle powyższego modelu etycznego.
UMOWY I ETYKA
Biznes polega na wytwarzaniu i sprzedaży produktów oraz wymianie dóbr i usług. Kiedy wykonawca zamawia ładunek cegieł na budowę domu, a następnie sprzedaje dom lub zatrudnia pracownika, jest to ciągły proces zawierania i wypełniania umów. Umowa to obietnica zrobienia czegoś. Może to być dostarczenie towarów, wykonanie usługi (np. pomalowanie domu) lub ewentualnie zatrudnienie lub bycie zatrudnionym przez inną osobę. Sam proces biznesowy polega na zawieraniu i wypełnianiu umów. Bez umów żadna działalność nie byłaby możliwa. Zawieranie umów wiąże się z wieloma kwestiami etycznymi. Dla większości celów prawnych osoba staje się dorosła w wieku osiemnastu lat. Przedtem osoba niepełnoletnia może odrzucić umowę, która w innym przypadku byłaby zgodna z prawem, co jest postanowieniem mającym na celu ochronę osób niepełnoletnich przed nadużyciami ze strony dorosłych, którzy przekraczają swoje uprawnienia. Jakie powinny być prawa i obowiązki osób niepełnoletnich? A co z dorosłymi, którzy są niepełnosprawni umysłowo lub chorzy psychicznie? A co z dorosłymi o normalnej inteligencji i zdolnościach? Załóżmy, że pożyczka jest udzielana na następujących warunkach: "Oto pożyczka w wysokości 20 USD. Oddasz mi 21 USD w ciągu tygodnia". Jest to stopa procentowa wynosząca 5 procent tygodniowo, co stanowi 5 procent x 52, czyli 260 procent rocznie. Ta umowa jest nielegalna w większości stanów. Załóżmy, że szybko mówiący, ale uczciwy sprzedawca sprzedaje towary na kredyt w domu kupującego. Kupujący muszą zostać poinformowani na piśmie, że mają trzy dni na zmianę zdania. Czy to jest etyczne? Zgodnie z prawem kontraktowym, gdy transakcja zostanie zakończona, jest ona ostateczna. Załóżmy, że ktoś kupuje zestaw zielonych ręczników, a następnie kilka dni później decyduje, że czerwone ręczniki będą wyglądać lepiej. Sklep mógłby zgodnie z prawem powiedzieć: "kupiłeś je, nie ma z nimi nic złego; są twoje". Jeśli w sklepie widniałby napis: "Wszystkie zwroty muszą być dokonane w ciągu 30 dni", ten napis stałby się częścią umowy. Często znaki ostrzegają: "Brak zwrotów sukienek na bale maturalne i imprezy". To wzmacnia to, czym już jest umowa. Dobra polityka zwrotów to po prostu dobry biznes, ale prawo pozostawia etykę zwrotów sklepowi. Jaka polityka zwrotów jest najbardziej etyczna dla biznesu?
GWARANCJE
Gwarancja jest częścią umowy biznesowej. Jest to w zasadzie wiążąca obietnica, że produkt nadaje się do zamierzonego celu, jest wolny od wad i działa. Większość produktów o dowolnej złożoności ma "ograniczoną gwarancję", która najczęściej obejmuje części i robociznę przez jeden rok. Obecnie powszechna jest również sprzedaż rozszerzonych gwarancji, które przedłużają roczną gwarancję do trzech, a nawet pięciu lat. Pozwala to producentom i sprzedawcom na pisanie gwarancji w niemal dowolny sposób. Pytania etyczne brzmią: W jakim stopniu firma powinna odpowiadać za swoje produkty? W którym momencie etycznie słuszne jest, aby klient zaakceptował ryzyko wadliwego produktu? Sposób, w jaki sporządzane są gwarancje, może powodować problemy etyczne. W samochodzie opony i akumulatory zużywają się i podlegają bardzo ograniczonym gwarancjom; jednak współczesny samochód składa się z tysięcy części - każda z nich może ulec uszkodzeniu lub być wadliwa. Opisy gwarancji, nawet jeśli są napisane wprost, mogą być mylące, co do tego, co jest objęte, a co wykluczone. Czym zatem jest etyczna gwarancja samochodowa?
REKLAMA
Każdy zdaje sobie sprawę, że istnieje wiele krytyki etyki reklamy. Fałszywa reklama jest niezgodna z prawem i wszyscy zgodzą się, że jest nieetyczna. Znane przypadki dotyczą produktu, który był korzystny na wiele sposobów, ale fałszywie twierdził, że zapobiega przeziębieniom. W innym przypadku firma produkująca aspirynę twierdziła, że jej aspiryna jest skuteczniejsza od innych. Jeśli sklep reklamuje "jabłka - 5 funtów za 2,50 dolara", musi mieć "rozsądną ilość" pod ręką; uważa się, że dobrą praktyką biznesową jest udzielanie "czeków na deszcz", ale nie jest to prawnie wymagane. Również niezgodne z prawem jest reklamowanie produktu po bardzo niskiej cenie w celu przekonania klientów do droższych produktów. To jest znane jako "przynęta i podmiana". Prawo zezwala na to, co jest znane jako "nachwałka" sprzedażowa. Jest to nacisk na subiektywne cechy, takie jak to, że samochód jest piękny i sprawi, że "czujesz się dobrze" lub że jedzenie o wysokiej zawartości tłuszczu "dobrze smakuje", bez wspominania o ryzyku dla zdrowia związanym z nadmiarem tłuszczu. Łatwo jest spojrzeć na reklamy i rozpoznać nachwałkę sprzedażową i półprawdy. Jaka jest granica etyczna? Reklamowanie nielegalnych produktów, takich jak substancje kontrolowane, jest niezgodne z prawem. Ale co z legalnymi produktami, które są szkodliwe? Papierosów nie można teraz reklamować w telewizji ani na billboardach. Czy zakaz powinien zostać rozszerzony na reklamę w magazynach? Prawdziwa reklama jest częścią wolności słowa. Jakie inne ograniczenia, jeśli w ogóle, powinny być częścią prawa? Co z reklamami alkoholu?
PRAWO PRACY
Niewiele dziedzin prawa łączy prawo i etykę tak bardzo, jak prawo pracy. Zatrudnienie ma z pewnością kluczowe znaczenie dla naszego dobrobytu, a zatem jest przedmiotem żywego zainteresowania i wielu emocjonalnych debat.
Zatrudnienie na żądanie. Podczas gdy pracownicy rządowi i pracownicy związkowi cieszą się większą ochroną pracy, większość pracowników w Stanach Zjednoczonych jest zatrudniona na żądanie. Prawo pozwala na ich zwolnienie z ważnego powodu lub bez powodu. Szef, zgodnie z prawem, może zwolnić nawet pracownika zatrudnionego od dłuższego czasu po prostu dlatego, że nie lubi tej osoby. W większości innych krajów uprzemysłowionych pracownicy po okresie próbnym mogą zostać zwolnieni tylko z ważnego powodu (np. są niekompetentni lub kradną własność firmy). Prawo amerykańskie wydaje się być mniej etyczne. Jakie argumenty można podać na rzecz prawa amerykańskiego?
Prawo dotyczące dyskryminacji w zatrudnieniu Stany Zjednoczone podjęły ważne zobowiązanie do wprowadzenia etyki do prawa poprzez Ustawę o prawach obywatelskich z 1964 r., która zabrania dyskryminacji w zatrudnieniu ze względu na rasę, religię, wyznanie, pochodzenie narodowe lub płeć. Od tego czasu dodano inne kategorie, w tym wiek i niepełnosprawność. Większość ludzi zgadza się, że Stany Zjednoczone miały duże problemy z dyskryminacją w zatrudnieniu i że obecnie, pomimo znacznego postępu, wiele problemów nadal istnieje. Istnieje wiele kwestii etycznych. Praktycznie każdy zgodziłby się, że dyskryminacja jest nieetyczna, ponieważ jest zła i narusza prawo. Czy prawo powinno zmusić firmy do etycznego postępowania i niedyskryminowania?
Praca za granicą. Ponieważ prawie wszyscy zgadzają się, że amerykańskie prawa obywatelskie służą celom etycznym, czy amerykańskie firmy powinny dobrowolnie wdrażać te prawa jako politykę w swoich działaniach w krajach, w których nie obowiązują podobne prawa? Płace w wielu krajach, takich jak Meksyk, są znacznie niższe niż w Stanach Zjednoczonych. Wiele firm przeniosło całość lub część swoich działań do Meksyku. Prawo na to pozwala. Jakie zobowiązania etyczne ma firma wobec amerykańskich pracowników, którzy w wielu przypadkach nie znajdą porównywalnego zatrudnienia? Co menedżerowie są etycznie winni pracownikom, a co udziałowcom lub właścicielom? Jakie zatem są zobowiązania etyczne wobec potencjalnych meksykańskich pracowników, którzy mogą być chętni do podjęcia pracy, nawet jeśli płaca, świadczenia i ochrona są znacznie poniżej standardów amerykańskich? To jest w istocie cały obszar dyskusji etycznej. Jakich standardów zatrudnienia (wynagrodzenia, świadczeń, ochrony miejsc pracy) powinny wymagać amerykańskie firmy i konsumenci, gdy produkujemy lub kupujemy towary wyprodukowane w obcym kraju?
ŚRODOWISKO
Obok praw obywatelskich ruch ekologiczny jest kolejną wielką krucjatą. Celem ekologii jest ochrona planety nie tylko dla nas samych, ale także dla tych, którzy przyjdą po nas. Przestrzeganie prawa ochrony środowiska wydaje się podstawową normą etyczną. Jak daleko powinno sięgać prawo ochrony środowiska? Firmy chemiczne, które produkują produkty, których wszyscy używamy na co dzień, ze względu na charakter swojej działalności zanieczyszczają środowisko. Jakie jest stanowisko etyczne firmy chemicznej w wydawaniu pieniędzy na lobbowanie opinii publicznej i Kongresu na rzecz nowych praw i egzekwowania istniejących? Samochody nadal zanieczyszczają atmosferę, chociaż znacznie mniej niż w przeszłości. Gasohol to paliwo silnikowe produkowane częściowo z etanolu, który jest wytwarzany z kukurydzy, ale jest droższy od benzyny. Jakie są kwestie etyczne związane z etanolem? Globalne ocieplenie jest ważnym problemem środowiskowym. Według niektórych nasza planeta stopniowo staje się cieplejsza z powodu zanieczyszczeń. Może to zakończyć lub radykalnie zmienić życie na Ziemi. Inni twierdzą, że Ziemia naturalnie się ogrzewa i ochładza i że nie ma dowodów sugerujących, że nastąpiły jakiekolwiek znaczące zmiany z powodu zanieczyszczenia. Jaka powinna być etyczna pozycja obywateli, zwłaszcza firm, które mogą stracić lub zyskać na środkach podejmowanych przez rząd? Podobnie jak w przypadku prawa dotyczącego praw obywatelskich, wiele krajów ma mniej rygorystyczne przepisy niż Stany Zjednoczone dotyczące kwestii środowiskowych. Amerykańskie firmy prowadzące działalność w tych krajach mogą zanieczyszczać znacznie bardziej niż w Stanach Zjednoczonych. Ważnym punktem jest również to, że zanieczyszczenie nie respektuje granic państwowych. Jakie normy etyczne firma powinna wziąć pod uwagę, tworząc swoją politykę?
WNIOSKI
Arystoteles powiedział, że podjęcie decyzji, jaka jest najlepsza droga etyczna, nie jest łatwe. Rozsądni ludzie nie będą się zgadzać co do tego, co jest słuszne. Niniejszy artykuł ma na celu zadawanie pytań, a nie udzielanie odpowiedzi. Można rozważyć wiele innych kwestii etyki w prawie dla biznesu. Ostateczne, dalekosiężne pytania to: Czym jest etyczna firma i w jakim stopniu prawo powinno wymagać etyki?
Menedżerowie we współczesnym świecie biznesu muszą coraz częściej zwracać uwagę na dwie odrębne, ale powiązane ze sobą kwestie - etykę biznesu i odpowiedzialność społeczną.
ETYKA BIZNESOWA
Być może najbardziej praktycznym podejściem do postrzegania etyki jest traktowanie jej jako katalizatora, który sprawia, że menedżerowie podejmują społecznie odpowiedzialne działania. Ruch w kierunku włączenia etyki jako krytycznej części edukacji menedżerskiej rozpoczął się w latach 70., znacznie wzrósł w latach 80. i oczekuje się, że będzie nadal rósł. Stąd etyka biznesu jest krytycznym składnikiem przywództwa biznesowego. Etykę można zdefiniować jako naszą troskę o dobre zachowanie. Czujemy się zobowiązani do brania pod uwagę nie tylko naszego własnego osobistego dobrostanu, ale także innych ludzi. Jest to podobne do zasady Złotej Zasady: Czyń innym tak, jak chcesz, aby oni czynili tobie. W biznesie etykę można zdefiniować jako zdolność i chęć do refleksji nad wartościami w trakcie procesu podejmowania decyzji w organizacji, do określenia, w jaki sposób wartości i decyzje wpływają na różne grupy interesariuszy, oraz do ustalenia, w jaki sposób menedżerowie mogą wykorzystywać te zasady w codziennych operacjach firmy. Etyczni liderzy biznesowi dążą do uczciwości i sprawiedliwości w ramach rozsądnych praktyk zarządzania. Wiele osób pyta, dlaczego etyka jest tak istotnym elementem praktyki zarządzania. Powiedziano, że dla menedżerów ma sens biznesowy, aby byli etyczni. Bez bycia etycznymi firmy nie mogą być konkurencyjne ani na poziomie krajowym, ani międzynarodowym. Chociaż etyczne praktyki zarządzania niekoniecznie muszą być powiązane z konkretnymi wskaźnikami rentowności finansowej, nie ma nieuchronnego konfliktu między praktykami etycznymi a naciskiem firmy na osiąganie zysku; nasz system konkurencji zakłada podstawowe wartości prawdomówności i uczciwego postępowania. Stosowanie etycznych praktyk biznesowych może poprawić ogólne zdrowie przedsiębiorstwa w trzech ważnych obszarach. Pierwszym obszarem jest produktywność. Pracownicy korporacji są interesariuszami, na których wpływają praktyki zarządzania. Kiedy kierownictwo bierze pod uwagę etykę w swoich działaniach wobec interesariuszy, pracownicy mogą być pozytywnie dotknięci. Na przykład korporacja może zdecydować, że etyka biznesowa wymaga szczególnego wysiłku, aby zapewnić zdrowie i dobrostan pracowników. Wiele korporacji ustanowiło programy doradztwa pracowniczego (EAP), aby pomóc pracownikom w rozwiązywaniu problemów rodzinnych, zawodowych, finansowych lub prawnych, lub w przypadku chorób psychicznych lub uzależnienia od substancji chemicznych. Programy te mogą być źródłem zwiększonej produktywności dla korporacji. Drugim obszarem, w którym praktyki zarządzania etycznego mogą poprawić zdrowie korporacji, jest pozytywne oddziaływanie na interesariuszy "zewnętrznych", takich jak dostawcy i klienci. Pozytywny wizerunek publiczny może przyciągać klientów. Na przykład producent artykułów dla dzieci starannie chroni swój wizerunek publiczny jako firmy, która stawia zdrowie i dobrostan klientów ponad zyski korporacyjne, co zostało zilustrowane w jej kodeksie etycznym. Trzecim obszarem, w którym praktyki zarządzania etycznego mogą poprawić zdrowie korporacji, jest minimalizowanie regulacji ze strony agencji rządowych. W przypadku gdy uważa się, że firmy działają nieetycznie, społeczeństwo jest bardziej skłonne wywierać presję na ustawodawców i innych urzędników rządowych, aby regulowali te przedsiębiorstwa lub egzekwowali istniejące przepisy. Na przykład w 1990 roku odbyły się przesłuchania w sprawie wzrostu cen benzyny i oleju opałowego po inwazji Iraku na Kuwejt, częściowo z powodu opinii publicznej, że firmy naftowe nie zachowują się etycznie.
KODEKS ETYCZNY
Kodeks etyczny to formalne oświadczenie, które działa jako przewodnik po tym, jak ludzie w danej organizacji powinni działać i podejmować decyzje w sposób etyczny. Dziewięćdziesiąt procent firm z listy Fortune 500 i prawie połowa wszystkich innych firm ma kodeksy etyczne. Kodeksy etyczne powszechnie dotyczą takich kwestii, jak konflikt interesów, zachowanie wobec konkurentów, prywatność informacji, dawanie prezentów i dokonywanie wpłat na cele polityczne. Według niedawnego badania, opracowanie i rozpowszechnianie kodeksu etycznego w organizacji jest postrzegane jako skuteczny i wydajny sposób zachęcania do etycznych praktyk w organizacjach (Ross, 1988). Liderzy biznesowi nie mogą jednak zakładać, że tylko dlatego, że opracowali i rozpowszechnili kodeks etyczny, członkowie organizacji mają wszystkie wytyczne potrzebne do określenia, co jest etyczne i będą działać zgodnie z tym. Nie ma sposobu, aby wszystkie sytuacje, które obejmują podejmowanie decyzji etycznych w organizacji, mogły zostać omówione w kodeksie. Kodeksy etyki muszą być stale monitorowane, aby określić, czy są kompleksowymi i użytecznymi wytycznymi do podejmowania etycznych decyzji biznesowych. Menedżerowie powinni postrzegać kodeksy etyki jako narzędzia, które muszą zostać ocenione i udoskonalone, aby skuteczniej zachęcać do etycznych praktyk.
TWORZENIE ETYCZNEGO MIEJSCA PRACY
Kierownicy firm w większości organizacji powszechnie starają się zachęcać do etycznych praktyk nie tylko w celu zapewnienia moralnego postępowania, ale także w celu uzyskania wszelkich korzyści biznesowych, jakie mogą wynikać z postrzegania firmy przez potencjalnych konsumentów i pracowników jako etycznej. Tworzenie, rozpowszechnianie i ciągłe ulepszanie kodeksu etycznego firmy to jeden z typowych kroków, jakie kierownicy mogą podjąć w celu ustanowienia etycznego miejsca pracy. Innym krokiem, jaki mogą podjąć kierownicy, jest utworzenie specjalnego biura lub działu odpowiedzialnego za zapewnienie etycznych praktyk w organizacji. Na przykład kierownictwo głównego dostawcy systemów rakietowych i podzespołów lotniczych utworzyło biuro etyki korporacyjnej. To biuro etyki jest namacalnym znakiem dla wszystkich pracowników, że kierownictwo poważnie podchodzi do zachęcania do etycznych praktyk w firmie. Innym sposobem promowania etyki w miejscu pracy jest zapewnienie pracownikom odpowiedniego szkolenia. Wiele firm prowadzi programy szkoleniowe mające na celu zachęcanie do etycznych praktyk w swoich organizacjach. Takie programy nie próbują uczyć, co jest moralne lub etyczne, ale raczej dają kierownikom firm kryteria, których mogą użyć, aby pomóc określić, jak etyczne może być określone działanie. Dzięki temu menedżerowie mogą mieć pewność, że potencjalne działanie zostanie uznane za etyczne przez ogół społeczeństwa, jeżeli będzie zgodne z jednym lub kilkoma z następujących standardów:
1. Złota zasada: Postępuj tak, jak chciałbyś, aby inni postępowali wobec ciebie.
2. Zasada utylitarna: Postępuj w sposób, który przyniesie największe dobro dla jak największej liczby osób.
3. Kategoryczny imperatyw Kanta: Postępuj w taki sposób, aby działanie podjęte w danych okolicznościach mogło być uniwersalnym prawem lub regułą zachowania.
4. Etyka zawodowa: Podejmuj działania, które byłyby uznane za właściwe przez bezstronny panel profesjonalnych rówieśników.
5. Test telewizyjny: Zawsze pytaj: "Czy czułbym się komfortowo, wyjaśniając publiczności telewizji krajowej, dlaczego podjąłem takie działanie?".
6. Test prawny: Zapytaj, czy proponowane działanie lub decyzja są zgodne z prawem. Ustanowione prawa są ogólnie uważane za minimalne standardy etyki.
7. Czterokierunkowy test: Zapytaj, czy możesz odpowiedzieć "tak" na następujące pytania dotyczące decyzji: Czy decyzja jest zgodna z prawdą? Czy jest sprawiedliwa dla wszystkich zainteresowanych? Czy zbuduje dobrą wolę i lepsze przyjaźnie? Czy będzie to korzystne dla wszystkich zainteresowanych?
Wreszcie, menedżerowie mogą wziąć odpowiedzialność za tworzenie i utrzymywanie warunków, w których ludzie prawdopodobnie będą zachowywać się etycznie i za minimalizowanie warunków, w których ludzie mogą być kuszeni do nieetycznego zachowania. Dwie praktyki, które powszechnie inspirują nieetyczne zachowanie w organizacjach, to przyznawanie niezwykle wysokich nagród za dobrą wydajność i niezwykle surowych kar za słabą wydajność. Eliminując takie czynniki, menedżerowie mogą zmniejszyć znaczną część presji, jaką ludzie odczuwają, aby zachowywać się nieetycznie. Mogą również promować społeczną odpowiedzialność organizacji.
ODPOWIEDZIALNOŚĆ SPOŁECZNA
Termin odpowiedzialność społeczna oznacza różne rzeczy dla różnych osób. Ogólnie rzecz biorąc, społeczna odpowiedzialność biznesu to obowiązek podejmowania działań, które chronią i poprawiają dobrobyt społeczeństwa jako całości, a także interesy organizacji. Zgodnie z koncepcją społecznej odpowiedzialności biznesu menedżer musi dążyć do osiągnięcia zarówno celów organizacyjnych, jak i społecznych. Obecne perspektywy dotyczące podstaw społecznej odpowiedzialności przedsiębiorstw są wymienione i omówione poprzez (1) model społecznej odpowiedzialności biznesu Davisa, (2) obszary społecznej odpowiedzialności biznesu i (3) różne opinie na temat społecznej odpowiedzialności. Model społecznej odpowiedzialności biznesu opracowany przez Keitha Davisa (1975) zawiera pięć propozycji opisujących, dlaczego i w jaki sposób przedsiębiorstwa powinny przestrzegać obowiązku podejmowania działań, które chronią i poprawiają dobrobyt społeczeństwa i organizacji:
Propozycja 1: Odpowiedzialność społeczna wynika z władzy społecznej.
Propozycja 2: Biznes powinien działać jako otwarty system, z otwartym odbiorem danych od społeczeństwa i otwartym ujawnianiem jego działalności opinii publicznej.
Propozycja 3: Społeczne koszty i korzyści danej działalności, produktu lub usługi powinny być dokładnie obliczone i rozważone przy podejmowaniu decyzji o kontynuowaniu.
Propozycja 4: Społeczne koszty związane z każdą działalnością, produktem lub usługą powinny być przerzucane na konsumenta.
Propozycja 5: Instytucje biznesowe, jako obywatele, mają obowiązek angażowania się w pewne problemy społeczne, które wykraczają poza ich normalne obszary działania .
Obszary, w które biznes może się zaangażować, aby chronić i poprawiać dobrobyt społeczeństwa, są liczne i różnorodne. Niektóre z najbardziej nagłośnionych z tych obszarów to sprawy miejskie, sprawy konsumenckie, sprawy środowiskowe i praktyki zatrudnienia. Chociaż wiele firm angażuje się w działania społecznie odpowiedzialne, wciąż trwają kontrowersje co do tego, czy takie zaangażowanie jest konieczne lub właściwe. Istnieje wiele argumentów za i przeciw prowadzeniu przez firmy działań społecznie odpowiedzialnych. Najbardziej znanym argumentem popierającym takie działania jest to, że ponieważ biznes jest podzbiorem społeczeństwa i wywiera na nie znaczący wpływ, ma on obowiązek pomagać w jego ulepszaniu. Ponieważ społeczeństwo nie wymaga od żadnego ze swoich członków ani więcej, ani mniej, dlaczego biznes miałby być zwolniony z takiej odpowiedzialności? Ponadto rentowność i wzrost idą w parze z odpowiedzialnym traktowaniem pracowników, klientów i społeczności. Jednak badania nie wykazały żadnego wyraźnego związku między społeczną odpowiedzialnością biznesu a rentownością. Jeden z bardziej znanych argumentów przeciwko takim działaniom wysuwa wybitny ekonomista Milton Friedman. Friedman (1989) twierdzi, że uczynienie menedżerów przedsiębiorstw jednocześnie odpowiedzialnymi przed właścicielami przedsiębiorstw za osiąganie celów zysku i przed społeczeństwem za zwiększanie dobrobytu społecznego stanowi konflikt interesów, który może spowodować upadek przedsiębiorstw. Według Friedmana upadek ten prawie na pewno nastąpi, jeśli przedsiębiorstwa będą stale zmuszane do wykonywania społecznie odpowiedzialnych zachowań, które są w bezpośrednim konflikcie z prywatnymi celami organizacyjnymi. Twierdzi również, że wymaganie od menedżerów przedsiębiorstw realizacji społecznie odpowiedzialnych celów może być nieetyczne, ponieważ wymaga od menedżerów wydawania pieniędzy, które w rzeczywistości należą do innych osób. Niezależnie od tego, który argument lub kombinację argumentów poszczególni menedżerowie mogą poprzeć, powinni oni zazwyczaj podejmować skoordynowane wysiłki, aby wykonywać wszystkie wymagane prawnie działania społecznie odpowiedzialne, rozważać dobrowolne wykonywanie działań społecznie odpowiedzialnych wykraczających poza te wymagane prawnie i informować wszystkie odpowiednie osoby o zakresie, w jakim ich organizacja zaangażuje się w wykonywanie działań społecznie odpowiedzialnych. Prawo federalne wymaga, aby przedsiębiorstwa wykonywały określone działania społecznie odpowiedzialne. W rzeczywistości utworzono kilka agencji rządowych, których zadaniem jest opracowanie takich przepisów dotyczących biznesu i zapewnienie przestrzegania prawa. Agencja Ochrony Środowiska ma prawo wymagać od firm przestrzegania pewnych społecznie odpowiedzialnych norm środowiskowych. Przestrzeganie ustawowych obowiązków społecznych stanowi minimalny standard społecznie odpowiedzialnej działalności, jaki muszą osiągnąć liderzy biznesu. Menedżerowie muszą jednak zadać sobie pytanie, jak daleko poza to minimum powinni próbować się posunąć - trudne i skomplikowane pytanie, które wiąże się z oceną pozytywnych i negatywnych skutków wykonywania społecznie odpowiedzialnych działań. Należy podejmować tylko te działania, które przyczyniają się do sukcesu firmy, a jednocześnie przyczyniają się do dobrobytu społeczeństwa.
Reaktywność społeczna. Reaktywność społeczna to stopień skuteczności i wydajności, jaki organizacja wykazuje w wypełnianiu swoich obowiązków społecznych. Im większy stopień skuteczności i wydajności, tym bardziej organizacja jest społecznie wrażliwa. Organizacja społecznie wrażliwa, która jest zarówno skuteczna, jak i wydajna, wypełnia swoje obowiązki społeczne bez marnowania zasobów organizacyjnych w tym procesie. Określenie dokładnie, jakie obowiązki społeczne organizacja powinna realizować, a następnie podjęcie decyzji, w jaki sposób je realizować, to prawdopodobnie dwa najważniejsze aspekty podejmowania decyzji w celu utrzymania wysokiego poziomu reaktywności społecznej w organizacji. Oznacza to, że menedżerowie muszą zdecydować, czy ich organizacja powinna podejmować działania samodzielnie, czy też uzyskać pomoc osób z zewnątrz, które mają większą wiedzę specjalistyczną w tym obszarze. Oprócz podejmowania decyzji, różne podejścia do wypełniania obowiązków społecznych są kolejnym czynnikiem determinującym poziom reaktywności społecznej organizacji. Pożądane i społecznie wrażliwe podejście do spełniania zobowiązań społecznych obejmuje następujące elementy:
• Włączanie celów społecznych do rocznego procesu planowania
• Poszukiwanie porównawczych norm branżowych dla programów społecznych
• Przedstawianie członkom organizacji, zarządowi i akcjonariuszom raportów na temat postępów w zakresie odpowiedzialności społecznej
• Eksperymentowanie z różnymi podejściami do pomiaru wyników społecznych
• Próba zmierzenia kosztów programów społecznych, a także zwrotu z inwestycji w programy społeczne
S. Prakash Sethi (1975) przedstawia trzy podejścia zarządcze do spełniania zobowiązań społecznych: (1) podejście zobowiązania społecznego, (2) podejście odpowiedzialności społecznej i (3) podejście reakcji społecznej. Każde z trzech podejść Sethiego zawiera zachowania, które odzwierciedlają nieco inne podejście do przedsiębiorstw wykonujących działania społecznie odpowiedzialne. Podejście zobowiązania społecznego, na przykład, uważa, że biznes ma przede wszystkim cele ekonomiczne i ogranicza działalność społecznie odpowiedzialną głównie do zgodności z obowiązującymi przepisami. Podejście odpowiedzialności społecznej uważa, że biznes ma zarówno cele ekonomiczne, jak i społeczne. Podejście społecznej wrażliwości zakłada, że biznes ma zarówno cele społeczne, jak i ekonomiczne, a także obowiązek przewidywania nadchodzących problemów społecznych i aktywnej pracy w celu zapobiegania ich pojawianiu się. Organizacje charakteryzujące się postawami i zachowaniami zgodnymi z podejściem społecznej wrażliwości są na ogół bardziej wrażliwe społecznie niż organizacje charakteryzujące się postawami i zachowaniami zgodnymi z podejściem społecznej odpowiedzialności lub podejściem społecznego zobowiązania. Ponadto organizacje charakteryzujące się podejściem społecznej odpowiedzialności osiągają na ogół wyższy poziom społecznej wrażliwości niż organizacje charakteryzujące się podejściem społecznego zobowiązania. W miarę przechodzenia od podejścia społecznego zobowiązania do podejścia społecznej wrażliwości zarządzanie staje się bardziej proaktywne. Proaktywni menedżerowie będą robić to, co jest ostrożne z punktu widzenia biznesu, aby zmniejszyć zobowiązania, niezależnie od tego, czy działanie jest wymagane przez prawo, czy nie.
Obszary pomiaru. Aby zachować spójność, można przeprowadzić pomiary w celu oceny postępów organizacji w osiąganiu społecznie odpowiedzialnych celów. Konkretne obszary, w których poszczególne firmy faktycznie dokonują takich pomiarów, różnią się, oczywiście, w zależności od konkretnych celów firm. Jednak wszystkie firmy prawdopodobnie powinny przeprowadzać takie pomiary w co najmniej następujących czterech głównych obszarach:
1. Funkcja ekonomiczna: Ten pomiar daje pewne wskazówki dotyczące wkładu ekonomicznego, jaki organizacja wnosi do społeczeństwa.
2. Jakość życia: Pomiar jakości życia powinien koncentrować się na tym, czy organizacja poprawia, czy pogarsza ogólną jakość życia w społeczeństwie.
3. Inwestycje społeczne: Pomiar inwestycji społecznych dotyczy stopnia, w jakim organizacja inwestuje zarówno pieniądze, jak i zasoby ludzkie w rozwiązywanie problemów społecznych społeczności.
4. Rozwiązywanie problemów: Pomiar rozwiązywania problemów powinien koncentrować się na stopniu, w jakim organizacja radzi sobie z problemami społecznymi.
Audyt społeczny: raport z postępów Audyt społeczny to proces pomiaru społecznej odpowiedzialności w celu oceny wyników organizacji w tym obszarze. Podstawowe kroki w przeprowadzaniu audytu społecznego to monitorowanie, mierzenie i ocena wszystkich aspektów społecznie odpowiedzialnej działalności organizacji. Prawdopodobnie żadne dwie organizacje nie przeprowadzają i nie przedstawiają wyników audytu społecznego w dokładnie taki sam sposób. Audyt społeczny to proces pomiaru społecznie odpowiedzialnych działań organizacji. Monitoruje, mierzy i ocenia społecznie odpowiedzialną działalność.
Etyka to zbiór zasad właściwego postępowania, które kształtują decyzje podejmowane przez ludzi lub organizacje. Praktykowanie etyki w marketingu oznacza świadome stosowanie standardów uczciwości, czyli moralnych praw i nieprawości, do podejmowania decyzji marketingowych, zachowań i praktyk w organizacji. W gospodarce rynkowej można oczekiwać, że firma będzie działać w tym, co uważa za swoje własne najlepsze interesy. Celem marketingu jest stworzenie przewagi konkurencyjnej. Organizacja osiąga przewagę, gdy lepiej niż konkurenci spełnia wymagania dotyczące produktów i usług na swoich rynkach docelowych. Organizacje, które rozwijają przewagę konkurencyjną, są w stanie zaspokoić potrzeby zarówno klientów, jak i organizacji. W miarę jak nasz system gospodarczy odnosił większe sukcesy w zaspokajaniu potrzeb i pragnień, większy nacisk położono na przestrzeganie przez organizacje wartości etycznych, a nie tylko na dostarczanie produktów. Skupienie to wynikało z dwóch powodów. Po pierwsze, gdy organizacja zachowuje się etycznie, klienci rozwijają bardziej pozytywne nastawienie do firmy, jej produktów i usług. Gdy praktyki marketingowe odbiegają od standardów, które społeczeństwo uważa za akceptowalne, proces rynkowy staje się mniej wydajny - czasami jest nawet przerywany. Niestosowanie etycznych praktyk marketingowych może prowadzić do niezadowolenia klientów, złej reklamy, braku zaufania, utraty biznesu, a czasami do działań prawnych. Dlatego większość organizacji jest bardzo wrażliwa na potrzeby i opinie swoich klientów i szuka sposobów na ochronę swoich długoterminowych interesów. Po drugie, nadużycia etyczne często prowadzą do nacisków (społecznych lub rządowych) na instytucje, aby przyjęły większą odpowiedzialność za swoje działania. Ponieważ nadużycia się zdarzają, niektórzy ludzie uważają, że istnieje wiele wątpliwych praktyk biznesowych. W rezultacie grupy interesów konsumentów, stowarzyszenia zawodowe i grupy samoregulacyjne wywierają znaczny wpływ na marketing. Wezwania do społecznej odpowiedzialności poddały również praktyki marketingowe szerokiemu zakresowi przepisów federalnych i stanowych mających na celu ochronę praw konsumentów lub stymulację handlu. Federalna Komisja Handlu (FTC) i inne agencje rządowe federalne i stanowe są odpowiedzialne zarówno za egzekwowanie przepisów, jak i tworzenie polityk ograniczających nieuczciwe praktyki marketingowe. Ponieważ nie można opracować regulacji obejmujących wszystkie możliwe nadużycia, organizacje i grupy branżowe często opracowują kodeksy postępowania etycznego lub zasady zachowania, które mają służyć jako wytyczne w podejmowaniu decyzji. Na przykład American Marketing Association opracowało kodeks etyczny (który można znaleźć na stronie internetowej www.ama.org). Samoregulacja nie tylko pomaga firmie uniknąć rozległej interwencji rządu, ale także pozwala jej lepiej reagować na zmiany warunków rynkowych. Długoterminowy sukces i rentowność organizacji zależą od tej zdolności reagowania. W dalszej części artykułu omówiono kilka obszarów budzących obawy w zakresie etyki marketingowej.
NIEUCZCIWE LUB ZWODNIE PRAKTYKI MARKETINGOWE
Praktyki marketingowe są zwodnicze, jeśli klienci wierzą, że otrzymają więcej wartości z produktu lub usługi, niż faktycznie otrzymują. Oszustwo, które może przybrać formę błędnego przedstawienia, pominięcia lub wprowadzającej w błąd praktyki, może wystąpić podczas pracy z dowolnym elementem marketing mix. Ponieważ konsumenci są narażeni na ogromne ilości informacji o produktach i firmach, często stają się sceptyczni wobec twierdzeń marketingowych i komunikatów sprzedażowych i działają, aby chronić się przed oszustwem. Tak więc, gdy produkt lub usługa nie zapewnia oczekiwanej wartości, klienci często będą szukać innego źródła. Zwodnicze praktyki cenowe sprawiają, że klienci wierzą, że cena, którą płacą za pewną jednostkę wartości produktu lub usługi, jest niższa niż w rzeczywistości. Oszustwo może przybrać formę dokonywania fałszywych porównań cen, podawania mylących sugerowanych cen sprzedaży, pomijania ważnych warunków sprzedaży lub oferowania bardzo niskich cen tylko wtedy, gdy kupowane są również inne przedmioty. Praktyki promocyjne są zwodnicze, gdy sprzedawca celowo błędnie przedstawia sposób konstrukcji lub działania produktu, nie ujawnia informacji dotyczących sprzedaży piramidalnej (technika sprzedaży, w której osoba jest rekrutowana do planu, a następnie spodziewa się zarobić pieniądze, rekrutując inne osoby) lub stosuje techniki sprzedaży typu "wabik i podmiana" (technika, w której firma oferuje sprzedaż produktu lub usługi, często po niższej cenie, w celu przyciągnięcia klientów, którzy są następnie zachęcani do zakupu droższego przedmiotu). Fałszywe lub mocno przesadzone twierdzenia dotyczące produktu lub usługi są również mylące. Gdy opakowania są celowo błędnie oznaczone pod względem zawartości, rozmiaru, wagi lub informacji o użytkowaniu, stanowi to mylące opakowanie. Sprzedaż niebezpiecznych lub wadliwych produktów bez ujawniania zagrożeń, niewykonanie obiecanych usług i niehonorowanie zobowiązań gwarancyjnych również uważa się za oszustwo.
MATERIAŁY OBRAŹLIWE I NIEPRZYJEMNE PRAKTYKI MARKETINGOWE
Marketingowcy kontrolują to, co mówią klientom, a także sposób i miejsce, w jaki to mówią. Kiedy wydarzenia, programy telewizyjne lub radiowe lub publikacje sponsorowane przez marketera, oprócz produktów lub materiałów promocyjnych, są postrzegane jako obraźliwe, często wywołują silne negatywne reakcje. Na przykład niektórzy ludzie uważają, że reklamy wszystkich produktów promujących potencję seksualną są obraźliwe. Inni mogą być obrażeni, gdy promocja wykorzystuje stereotypowe obrazy lub używa seksu jako apelu. Dotyczy to w szczególności sytuacji, gdy produkt jest sprzedawany w innych krajach, gdzie słowa i obrazy mogą mieć inne znaczenie niż w kraju przyjmującym. Kiedy ludzie uważają, że produkty lub apele są obraźliwe, mogą naciskać na sprzedawców, aby zaprzestali sprzedaży produktu. Dlatego wszystkie komunikaty promocyjne muszą być starannie sprawdzane i testowane, a media komunikacyjne, programy i treści redakcyjne dobierane tak, aby odpowiadały gustom i zainteresowaniom docelowych klientów. Jednak poza grupą docelową marketerzy powinni zrozumieć, że są inni, którzy nie są klientami, a którzy mogą otrzymać ich apele, zobaczyć ich obrazy i poczuć się urażeni. Marketing bezpośredni jest również poddawany dokładniejszej analizie. Niedopuszczalne praktyki obejmują drobne czynniki drażniące, takie jak czas i częstotliwość listów sprzedażowych lub reklam, po te, które są obraźliwe, a nawet nielegalne. Przykładami praktyk, które mogą budzić wątpliwości etyczne, są uporczywa i nachalna sprzedaż, irytujące połączenia telemarketingowe i reklamy telewizyjne, które są zbyt długie lub emitowane zbyt często. Apel marketingowy stworzony w celu wykorzystania młodych lub niedoświadczonych konsumentów lub osób starszych - w tym reklamy, apele sprzedażowe zamaskowane jako konkursy, poczta śmieciowa (w tym poczta elektroniczna) oraz korzystanie z list mailingowych i wymiana list mailingowych - mogą również budzić wątpliwości etyczne. Oprócz podlegania przepisom i regulacjom dotyczącym ochrony konsumentów, Direct Marketing Association udostępnia listę dobrowolnych wytycznych etycznych dla firm zajmujących się marketingiem bezpośrednim
ETYCZNE PRAKTYKI DOTYCZĄCE PRODUKTÓW I DYSTRYBUCJI
Kilka kwestii związanych z produktami budzi wątpliwości dotyczące etyki w marketingu, najczęściej dotyczących jakości dostarczanych produktów i usług. Do najczęściej wyrażanych skarg należą te dotyczące produktów, które są niebezpieczne, mają słabą jakość wykonania lub treści, nie zawierają tego, co jest promowane, wychodzą z mody lub stają się przestarzałe, zanim faktycznie trzeba je będzie wymienić. Organizacja, która sprzedaje produkty złej jakości lub niebezpieczne, ryzykuje, że zyska reputację dzięki słabym produktom lub usługom. Ponadto może narażać się na roszczenia dotyczące produktów lub działania prawne. Czasami jednak częste zmiany w funkcjach lub wydajności produktu, takie jak te, które często występują w branży komputerowej, sprawiają, że poprzednie modele produktów stają się przestarzałe. Takie zmiany można błędnie zinterpretować jako zaplanowaną przestarzałość. Kwestie etyczne mogą również pojawić się w procesie dystrybucji. Ponieważ wydajność sprzedaży jest najczęstszym sposobem oceny przedstawicieli marketingu i personelu sprzedaży, istnieją naciski na wydajność, które mogą prowadzić do dylematów etycznych. Na przykład wywieranie presji na dostawców, aby kupowali więcej niż potrzebują, i promowanie pozycji, które spowodują wyższe prowizje, to pokusy. Wywieranie wpływu, aby dostawcy zmniejszyli powierzchnię wystawową dla produktów konkurencji, obiecywanie wysyłki, wiedząc, że dostawa nie jest możliwa w obiecanym terminie, lub płacenie dostawcom za dostarczenie produktu firmy, a nie jednego z jej konkurentów, jest również nieetyczne. Badania to kolejny obszar, w którym mogą pojawić się problemy etyczne. Informacje zebrane w wyniku badań mogą być ważne dla skutecznego marketingu produktów lub usług. Konsumenci mogą jednak postrzegać wysiłki organizacji mające na celu zebranie od nich danych jako naruszenie ich prywatności. Są oni oporni przed podawaniem danych osobowych, które mogłyby spowodować, że staną się celem marketingowym lub otrzymają informacje o produkcie lub sprzedaży. Gdy dane o produktach lub konsumentach są wyolbrzymiane w celu przedstawienia argumentu sprzedaży lub gdy pytania badawcze są formułowane w celu uzyskania określonego wyniku, konsumenci są wprowadzani w błąd. Bez narzuconych sobie standardów etycznych w procesie badawczym kierownictwo prawdopodobnie podejmie decyzje w oparciu o niedokładne informacje.
CZY MARKETING NADMIERNIE SKUPIAJĄ SIĘ NA MATERIALIZMIE?
Konsumenci rozwijają tożsamość na rynku, która jest kształtowana zarówno przez to, kim są, jak i przez to, kim widzą siebie jako osoby. Istnieją dowody na to, że sposób, w jaki konsumenci postrzegają siebie, wpływa na ich zachowania zakupowe. Ta tożsamość jest często odzwierciedlona w markach lub produktach, które konsumują, lub w sposobie, w jaki prowadzą swoje życie. Rozprzestrzenianie się informacji o produktach i usługach komplikuje podejmowanie decyzji. Czasami pragnienia konsumentów, aby osiągnąć lub utrzymać określony styl życia lub wizerunek, skutkują zakupem większej ilości, niż potrzebują lub na jaką ich stać. Czy marketing kreuje te pragnienia? Oczywiste jest, że istnieją apele, które mają na celu skłonienie ludzi do zakupu większej ilości, niż potrzebują lub na jaką ich stać. Niezamawiane oferty kart kredytowych z wysokimi limitami lub wysokimi stopami procentowymi, apele reklamowe zachwalające psychologiczne korzyści z konsumpcji ostentacyjnej i promocje, które mają na celu stymulowanie nierozpoznanych potrzeb, są często cytowane jako przykłady tych nadużyć.
SPECJALNE KWESTIE ETYCZNE W MARKETINGU SKIEROWANYM DO DZIECI
Dzieci są ważnym celem marketingowym dla niektórych produktów. Ponieważ ich wiedza na temat produktów, mediów i strategii sprzedaży nie jest zazwyczaj tak dobrze rozwinięta jak wiedza dorosłych, dzieci są bardziej podatne na psychologiczne apele i silne wizerunki. Dlatego też, gdy są narażone na wątpliwe taktyki i komunikaty marketingowe, czasami pojawiają się pytania etyczne. Na przykład badania łączące związki między marketingiem tytoniu i alkoholu a spożyciem przez młodzież doprowadziły do wzrostu presji społecznej, co bezpośrednio prowadzi do regulacji marketingu tych produktów. Rozprzestrzenianie się marketingu bezpośredniego i wykorzystanie Internetu do marketingu skierowanego do dzieci również podnosi kwestie etyczne. Czasami kilku nieuczciwych marketerów projektuje strony tak, aby dzieci mogły ominąć nadzór lub kontrolę dorosłych; czasami prezentują nieodpowiednie materiały nieletnim konsumentom lub wywierają na nich presję, aby kupowali przedmioty lub podawali numery kart kredytowych. Kiedy tak się dzieje, prawdopodobnie nastąpi presja społeczna i późniejsze regulacje. Podobnie, programowanie dla dzieci i młodzieży w mediach masowych jest od wielu lat pod lupą. W Stanach Zjednoczonych marketing skierowany do dzieci jest ściśle kontrolowany. Przepisy federalne nakładają ograniczenia na rodzaje marketingu, który może być skierowany do dzieci, a działania marketingowe są monitorowane przez Better Business Bureau, Federal Trade Commission, grupy konsumenckie i rodzicielskie oraz sieci nadawcze. Wytyczne te jasno wskazują marketerom.
KWESTIE ETYCZNE W MARKETINGU DO MNIEJSZOŚCI
Stany Zjednoczone to społeczeństwo o coraz większej różnorodności. Rynki są podzielone na segmenty, w których ludzie mają pewne podobne cechy. Kwestie etyczne pojawiają się, gdy taktyki marketingowe są specjalnie zaprojektowane w celu wykorzystania lub manipulowania segmentem rynku mniejszościowego. Obraźliwe praktyki mogą przybierać formę negatywnych lub stereotypowych przedstawień mniejszości, kojarzenia konsumpcji szkodliwych lub wątpliwych produktów z określonym segmentem mniejszościowym i poniżającego przedstawiania rasy lub grupy. Kwestie etyczne mogą również pojawić się, gdy sprzedaż pod presją jest skierowana do grupy, gdy wyższe ceny są pobierane za produkty sprzedawane mniejszościom, a nawet gdy sklepy zapewniają gorszą obsługę w dzielnicach z dużą populacją klientów mniejszościowych. Takie praktyki prawdopodobnie spowodują zły wizerunek publiczny i utratę sprzedaży dla marketera. W przeciwieństwie do prawnych zabezpieczeń chroniących dzieci przed szkodliwymi praktykami, podjęto niewiele wysiłków w celu ochrony klientów należących do mniejszości. Kierując reklamy do mniejszości, firmy muszą ocenić, czy docelowa grupa jest podatna na apele ze względu na swój status mniejszości. Firma musi ocenić działania marketingowe, aby ustalić, czy etyczne zachowanie skłoniłoby ją do zmiany praktyk marketingowych.
PROBLEMY ETYCZNE ZWIĄZANE Z PORTRETEM KOBIET W DZIAŁANIACH MARKETINGOWYCH
Wraz ze zmianami w społeczeństwie zmieniają się również wizerunki i role przyjmowane przez ludzi, niezależnie od rasy, płci czy zawodu. Kobiety były przedstawiane na różne sposoby na przestrzeni lat. Kiedy marketerzy przedstawiają te wizerunki jako zbyt konwencjonalne, schematyczne lub zbyt uproszczone, ludzie mogą postrzegać je jako stereotypowe i obraźliwe. Przykłady poniżających stereotypów obejmują te, w których kobiety są przedstawiane jako mniej inteligentne, uległe lub zafascynowane mężczyznami, niezdolne do pełnienia ról przywódczych lub podejmowania decyzji lub skąpo ubrane, aby przypodobać się seksualnym zainteresowaniom mężczyzn. Szkodliwe stereotypy obejmują te przedstawiające kobiety jako zafascynowane swoim wyglądem lub podporządkowane ideałom rozmiaru, wagi lub piękna. Gdy obrazy są uważane za poniżające lub szkodliwe, będą działać na szkodę organizacji. Reklamy, w szczególności, powinny być oceniane, aby upewnić się, że wyświetlane obrazy nie są obraźliwe.
WNIOSEK
Ponieważ decyzje marketingowe często wymagają specjalistycznej wiedzy, kwestie etyczne są często bardziej skomplikowane niż te, z którymi mierzymy się w życiu osobistym - a skuteczne podejmowanie decyzji wymaga konsekwencji. Ponieważ każda sytuacja biznesowa jest inna i nie wszystkie decyzje są proste, wiele organizacji przyjęło kodeksy postępowania etycznego i zasady etyki zawodowej, aby kierować menedżerami i pracownikami. Jednak czasami samoregulacja okazuje się niewystarczająca, aby chronić interesy klientów, organizacji lub społeczeństwa. W tym momencie prawdopodobnie wystąpią naciski na regulację i uchwalenie ustawodawstwa w celu ochrony interesów wszystkich stron w procesie wymiany.
Etyka to badanie kwestii moralności, poszukiwanie zrozumienia, co jest dobre, co złe, co jest dobre, a co złe. Jest to gałąź filozofii, która systematycznie bada ideały i cele moralne, motywy wyboru oraz wzorce dobrego i złego postępowania. Etyka pochodzi od greckiego słowa ethikos, oznaczającego "charakter". Kwestie charakteru osobistego i poszukiwanie najlepszych wzorców życia stanowiły istotę greckiej filozofii etycznej. Natomiast słowo moralny pochodzi od łacińskiego more (MOR-ay). Rzymianie używali tego terminu do opisania zwyczajowych sposobów, w jakie ludzie mieli tendencję do działania. Tak więc, chociaż te dwa terminy są często używane zamiennie dzisiaj, moralność ewoluowała, aby oznaczać normy społeczne, których ludzie są uczeni i warunkowani do przestrzegania, podczas gdy etyka zaczęła odnosić się do racjonalnego badania i kwestionowania tych norm. Ten pogląd na etykę jest uważany za normatywny, ponieważ zakłada istnienie przynajmniej niektórych uniwersalnych zasad i standardów moralnych. Etyka ma tendencję do bycia interdyscyplinarną dziedziną nauki. Teologowie badają etykę i moralność w świetle nauk religijnych i boskich nakazów. Psychologowie starają się zrozumieć, w jaki sposób wartości ludzi wpływają na ich myślenie, motywacje behawioralne i rozwój osobisty. Socjologowie próbują identyfikować i wyjaśniać różne normy i praktyki kulturowe. Edukatorzy biznesowi starają się pomóc firmom, pracownikom i profesjonalistom unikać kosztownych i kontrproduktywnych wykroczeń etycznych. Jednak badanie etyki normatywnej było historycznie zdominowane przez filozofów, którzy stosowali zasady rozumu i logiki, aby znaleźć odpowiedzi na zagmatwane pytania moralne ludzkości. Jedną z widocznych przeszkód w tym procesie jest to, że logiczne rozumowanie, przynajmniej na pierwszy rzut oka, nie wydaje się prowadzić różnych ludzi do tych samych wniosków i odpowiedzi etycznych. Gdyby ludzie, idealnie rzecz biorąc, używali rozumu poprawnie, co by nam to powiedziało o etyce? To poszukiwanie najlepszych, najbardziej logicznych zasad do naśladowania jest domeną etyki ogólnej. Końcowym rezultatem tych poszukiwań są systemy etyczne lub teorie - grupy systematycznie powiązanych zasad etycznych, które próbują opisać i przepisać ludzką moralność. Naukowcy zajmujący się etyką stosowaną biorą następnie te systemy i zasady etyczne i stosują je do współczesnych kwestii moralnych, dylematów i sytuacji życiowych. Przykłady konkretnych badań z zakresu etyki stosowanej obejmują etykę biznesu, rządu i etykę zawodową (medyczną, prawną itp.).
ETYKA RELIGIJNA I FILOZOFICZNA
Być może największą nieustanną walką związaną z etyką w historii była walka między zwolennikami etyki religijnej a zwolennikami etyki filozoficznej. Etyka religijna daje pierwszeństwo boskiemu autorytetowi. Działania zgodne z wolą lub naukami tego autorytetu są uważane za dobre lub słuszne; działania niezgodne z nimi są postrzegane jako złe, niewłaściwe lub niegodziwe. Uważa się, że ludzie mogą znaleźć lub odkryć tę boską wolę poprzez święte pisma, nauki przywódców religijnych, modlitwę i osobiste objawienie. Z drugiej strony etyka filozoficzna kładzie nacisk przede wszystkim na racjonalne myślenie i zasady logiki. Pogląd ten zakłada, że jednostki mogą używać rozumu do znajdowania odpowiedzi na pytania moralne, czyniąc autorytet religijny zbędnym. Ten konflikt może osiągnąć krytyczne rozmiary. Wielu filozofów, którzy rzucili wyzwanie autorytetom religijnym swoich czasów, zostało napiętnowanych jako niebezpieczni heretycy. Zapowiadając schemat, który miał się powtarzać przez stulecia, centralnym zarzutem prowadzącym do skazania i ostatecznej egzekucji Sokratesa było to, że kwestionował bogów Aten i uczył innych, by robili to samo. Warto jednak zauważyć, że niektórzy z najbardziej wpływowych myślicieli etycznych w historii argumentowali, że ten postrzegany konflikt między rozumem a wiarą może być jedynie iluzoryczny; że wiara i rozum nie muszą być przeciwnikami, ale mogą się wzajemnie wspierać, a nawet potwierdzać.
SYSTEMY ETYCZNE
Istniało mniej więcej tyle różnych filozoficznych punktów widzenia na etykę, ilu ludzi o niej myślało. Można je jednak z grubsza podzielić na trzy główne rodziny systemów etycznych. Pierwszą z nich są teorie etyki cnót, oparte na naukach trzech wielkich świateł starożytnej filozofii greckiej - Sokratesa (469-399 p.n.e.), Platona (427?-347? p.n.e.) i Arystotelesa (384-322 p.n.e.). Większość prób opisania zachodniej myśli etycznej zaczyna się od tych trzech mężczyzn, ponieważ kładą nacisk na rozum i logikę jako niezbędne narzędzia do znajdowania odpowiedzi na pytania etyczne. To założenie jest kamieniem węgielnym myślenia filozoficznego od tamtej pory. Centralnym punktem w etyce cnót jest charakter osobisty. Starożytni Grecy wierzyli, że celem życia ludzi jest osiągnięcie szczęścia i spełnienia. Celem starożytnej etyki greckiej było zatem poszukiwanie "dobrego życia", wzoru określonych cech charakteru (cnót), które ludzie powinni zintegrować ze swoim życiem, aby szczęście i spełnienie były najbardziej prawdopodobne. Platon i Arystoteles napisali, że cnoty mądrości, odwagi, umiarkowania i sprawiedliwości były najbardziej logicznym wyborem, aby pomóc ludziom osiągnąć ten cel. Jednym z dowodów głębokiego wpływu tych greckich myślicieli jest to, że tak wielu innych filozofów przyjęło i dostosowało ich podejście. Cyceron (106-43 p.n.e.), najbardziej znany z rzymskich intelektualistów, mocno opierał się na zasadach i koncepcjach Arystotelesa. Katolicki teolog Tomasz z Akwinu (1225?-1274) wziął pisma Arystotelesa o zasadniczej roli rozumu i natury w etyce i połączył je ze średniowieczną dogmatem rzymskokatolickim. Czyniąc to, pomógł zapoczątkować Oświecenie, rewolucjonizując katolickie myślenie i doktrynę w sposób widoczny do dziś. System etyczny Akwinaty (prawo naturalne) pozostał najbardziej wpływowym poglądem przez większą część średniowiecza, wspierany w niemałym stopniu przez władzę Kościoła. Dominacja ta trwała aż do XVII i XVIII wieku, kiedy filozofowie zaczęli próbować przywrócić prymat rozumu nad autorytetem religijnym, być może najważniejsze wydarzenie w rozwoju myślenia etycznego od czasów Platona. Jednym z pierwszych przywódców był brytyjski filozof John Locke (1632-1704). Locke rozciągnął zasady prawa naturalnego, aby uwzględnić założenie, że wszyscy ludzie są obdarzeni przez naturę (lub Boga) pewnymi podstawowymi prawami człowieka. Fakt ten nakłada na ludzi jasny obowiązek moralny poszanowania praw innych. W ten sposób naruszanie praw innych staje się jedynym prawdziwym złem moralnym, a wszystkie działania, które nie naruszają praw innych osób, muszą być etycznie dopuszczalne. Do najbardziej zagorzałych zwolenników systemu praw naturalnych Locke′a należeli założyciele Stanów Zjednoczonych, którzy postrzegali jego zasady i założenia jako moralny fundament swojej nowej republiki. Zasady te, wyraźnie wyrażone w Deklaracji Niepodległości i Konstytucji, pozostają podstawą amerykańskiego systemu prawnego. Drugą rodzinę systemów etycznych tworzą teorie deontologiczne. Podejścia te podzielają pogląd, że etyka powinna opierać się przede wszystkim na obowiązku moralnym. Podejście to jest prawdopodobnie najlepiej zilustrowane pismami wielkiego niemieckiego filozofa i pisarza Immanuela Kanta (1724-1804). Kant utrzymywał, że w sercu etyki leży moralny obowiązek posłuszeństwa nakazom rozumu. Ludzie mogą wiedzieć, co nakazuje rozum, za pomocą intuicji i rozumu moralnego. Centralną zasadą etyczną Kanta jest imperatyw kategoryczny, który mówi, że jedynymi moralnymi działaniami są te, które są zgodne ze standardami moralnymi, których chcielibyśmy, aby wszyscy przestrzegali. Na przykład Kant argumentował, że kłamstwo jest zawsze złe, ponieważ żadna racjonalna osoba nie chciałaby, aby kłamstwo stało się standardem moralnym dla wszystkich. (Kant nie uznawał wyjątków, argumentując, że nawet kłamstwo w celu uratowania życia jest niemoralne). Wniosek z tej zasady jest Kantowski szacunek dla osób, maksyma, że wykorzystywanie innych jest zawsze złe. Ludzie, jak twierdził, muszą być traktowani jako cele same w sobie, a nie jedynie jako środki do naszych własnych celów. Trzecia główna rodzina systemów etycznych obejmuje teorie utylitarne. To podejście uważa, że właściwym celem etyki jest wytwarzanie dobra, przyjemności lub szczęścia. Wczesnymi zwolennikami utylitaryzmu byli brytyjscy filozofowie Jeremy Bentham (1748-1832) i John Stuart Mill (1806-1873). Zgodnie z rozumowaniem utylitarystycznym, moralnie słuszne (lub najlepsze) działanie to takie, które wytwarza największe możliwe szczęście dla jak największej liczby osób. Zatem zachowania nie zawsze są moralne lub niemoralne. Zamiast tego moralność opiera się na określonych zmiennych, unikalnych dla każdej sytuacji. W niektórych sytuacjach kłamstwo może przynieść więcej ogólnego dobra niż mówienie prawdy (np. oszukanie porywacza, aby uratować dziecko). W innych sytuacjach prawda wyraźnie przyniesie więcej dobra.
KODEKS ETYKI BIZNESOWEJ I ZAWODOWEJ
Te klasyczne systemy etyczne są wyrażane i potwierdzane we współczesnym społeczeństwie na wiele sposobów. Kodeksy etyki są praktycznymi przykładami. Kodeks etyki to pisemny dokument mający służyć jako wytyczne dla tych, którzy będą go przestrzegać. Większość większych firm i korporacji ma kodeksy etyki dla swoich pracowników, podobnie jak większość zawodów dla swoich członków. Kodeksy zawodowe są zwykle pisane przez członków zawodu za pośrednictwem centralnej organizacji krajowej. Na przykład powszechnie przyjmuje się, że amerykańscy lekarze podlegają kodeksowi etyki Amerykańskiego Stowarzyszenia Medycznego, a amerykańscy prawnicy przestrzegają kodeksów swoich stowarzyszeń adwokackich. Jednak wiele innych zawodów również ma kodeksy etyki, w tym tak różnorodne dziedziny jak dziennikarstwo, farmacja, zarządzanie biznesem, edukacja, księgowość, inżynieria, pielęgniarstwo, egzekwowanie prawa i psychologia. Nawet najlepsze kodeksy etyki nie są w stanie zagwarantować etycznego zachowania. W rzeczywistości wiele kodeksów nie zawiera nawet metod egzekwowania, a jedynie wyraża ideały i wartości swoich korporacji i zawodów. Decyzja o tym, czy postępować etycznie, czy nieetycznie, zależy, jak zawsze, od jednostki.
Ważnym aspektem marketingu i sprzedaży produktów firmy jest etykieta produktu. Etykieta produktu jest bardzo ważna nie tylko dla sprzedaży produktu, ale także dla przekazywania konsumentom informacji, wizerunku firmy, wartości i postrzeganej wartości produktu. Dlatego firma projektując etykietę, musi wziąć pod uwagę wszystkie te czynniki. Oprócz aspektów marketingowych, aby etykieta była zgodna z przepisami federalnymi, muszą zostać spełnione pewne wymogi prawne.
ETYKIETOWANIE PRODUKTU
Ważnym aspektem marketingu i sprzedaży produktów firmy jest etykieta produktu. Etykieta produktu jest bardzo ważna nie tylko dla sprzedaży produktu, ale także dla przekazywania konsumentowi informacji, wizerunku firmy, wartości i postrzeganej wartości produktu. Dlatego projektując etykietę, firma musi wziąć pod uwagę wszystkie te czynniki. Oprócz aspektów marketingowych, konieczne jest spełnienie pewnych wymogów prawnych, aby etykieta była zgodna z przepisami federalnymi.
SZCZEGÓŁOWE INFORMACJE NA ETYKIECIE
Chociaż niektóre produkty można odpowiednio zidentyfikować wyłącznie na podstawie nazwy marki, wiele z nich wymaga pełniejszej identyfikacji ich charakteru i zastosowania. Krótko mówiąc, celem etykiety jest dostarczenie użytecznych i istotnych informacji o produkcie, a także pomoc w jego promocji. Przetworzona żywność, leki opatentowane, tekstylia i wiele innych produktów są prawnie zobowiązane do umieszczania dość kompletnej listy składników. Te szczegółowe informacje są niezwykle ważne, aby konsumenci - na przykład ci, którzy mają alergię na niektóre składniki - nie używali produktów, które mogą im zaszkodzić. Firmy mogą również umieszczać na swoich etykietach dodatkowe informacje, które nie są prawnie wymagane. Jednym z powodów jest to, że grupy konsumenckie często publicznie protestują przeciwko brakowi informacji na etykietach i domagają się ich uzupełnienia. Firma może uznać, że wprowadzenie drobnych zmian w etykiecie produktu jest tańsze niż poddawanie się ciągłej kontroli publicznej. Co więcej, gdy konkurencja zaczyna dodawać więcej informacji lub przeprojektowuje etykietę, aby była bardziej przyjazna dla użytkownika, firma może zdecydować się na modyfikację własnej etykiety, aby zapobiec utracie sprzedaży. Etykiety zawierają obecnie również cenę jednostkową, datę ważności oraz informacje o wartościach odżywczych. Cena jednostkowa pokazuje cenę za jednostkę standardowej miary (wagi lub objętości), umożliwiając konsumentom porównywanie wartości konkurencyjnych produktów - na przykład porównanie drogiego produktu markowego z tańszym produktem generycznym o podobnych składnikach. Cena jednostkowa najczęściej znajduje się na półce sklepowej, a nie na opakowaniu produktu. Data ważności informuje konsumentów o przewidywanej trwałości produktu, dzięki czemu mogą oni unikać produktów, które mogą się zepsuć. Informacje te są szczególnie ważne w przypadku produktów łatwo psujących się, takich jak mleko, jaja i inne produkty o krótkim terminie przydatności do spożycia. Etykiety żywieniowe określają ilość kalorii, tłuszczu całkowitego, cholesterolu, błonnika pokarmowego, sodu, minerałów, witamin i białka w żywności przetworzonej. Etykieta ujawnia również procentowe wartości dziennego spożycia na porcję każdego produktu w oparciu o dietę 2000 kalorii dziennie. Informacje te mogą być przydatne dla konsumentów ze specjalnymi potrzebami dietetycznymi lub starających się utrzymać zdrową, zbilansowaną dietę. Etykiety produktów dostarczają również innych przydatnych informacji konsumentom. Jednym z najczęstszych elementów etykiety są instrukcje dotyczące sposobu użycia produktu lub, w przypadku żywności, sposobu jego przygotowania. Przykładem mogą być instrukcje na odzieży wskazujące, jak czyścić i przechowywać produkty. Innym przykładem mogą być instrukcje na lekach na receptę lub bez recepty, które zawierają informacje o tym, ile tabletek należy przyjąć i ostrzegają o możliwych interakcjach z innymi lekami. Ponadto większość produktów, które mogą być toksyczne po spożyciu, ma na opakowaniu ostrzeżenie o tym fakcie, a także instrukcje dotyczące postępowania w nagłych wypadkach. Tego typu etykiety mają dwa główne cele. Pierwszym jest pomoc konsumentowi w przypadku niewłaściwego użycia produktu. Drugim celem jest pomoc w zapobieganiu pozwom ze strony konsumentów, którzy nadużywają produktów. Ogólnie rzecz biorąc, większa przejrzystość informacji o potencjalnych zagrożeniach związanych z produktem zapewnia firmie większą ochronę prawną. Niemniej jednak, żadne ostrzeżenie o produkcie, nawet szczegółowe, nie jest w stanie całkowicie zapobiec wszystkim pozwom. Większość firm stosuje również jedną lub więcej z trzech innych etykiet na swoich produktach. Pierwszy rodzaj, znany jako etykieta klasy, określa jakość produktu za pomocą litery, takiej jak "klasa A" lub słowa, takiego jak "najlepsza". Drugi rodzaj, etykieta informacyjna, zawiera sformułowania takie jak "Przechowywać w lodówce po otwarciu", aby pomóc konsumentom w prawidłowym stosowaniu produktu. Trzeci rodzaj, etykieta opisowa, opisuje zalety lub pozytywne cechy produktu.
KWESTIE PRAWNE
Rząd federalny ustanawia wymogi prawne, które stanowią kluczowy element projektowania etykiet produktów. Przepisy federalne dotyczące produktów i żywności stały się coraz liczniejsze od lat 60. XX wieku, w dużej mierze dzięki aktywizmowi konsumentów i zainteresowaniu mediów. Najważniejsze z tych przepisów i regulacji zostały omówione w niniejszym artykule. Na przełomie XX wieku, w odpowiedzi na presję konsumentów, rząd federalny powołał dwa rządowe organy regulacyjne: Agencję ds. Żywności i Leków (FDA), która reguluje międzystanowy handel żywnością i lekami, oraz Federalną Komisję Handlu (FTC), której rolą jest zwalczanie oszukańczych i nieuczciwych praktyk handlowych. Obie agencje posiadają szerokie uprawnienia do interpretowania i egzekwowania przepisów prawa. Ponadto każda agencja ma prawo badać domniemane naruszenia prawa i nakładać wysokie grzywny na firmy, które dopuściły się naruszeń prawa. Sama informacja o tym, że firma jest badana przez FDA lub FTC w związku z domniemanymi naruszeniami prawa, może zaszkodzić sprzedaży, a tym samym zyskom firmy. Dlatego większość firm dokłada wszelkich starań, aby przestrzegać przepisów federalnych regulujących etykiety i reklamę produktów. Poniżej znajduje się lista przepisów mających na celu ochronę konsumentów:
- Ustawa Robinsona-Patmana: Niniejsza ustawa zakazuje dyskryminacji cenowej.
- Poprawka Wheelera-Lea do Federalnej Komisji Handlu
Ustawa: Niniejsza poprawka kontroluje oszukańczą i wprowadzającą w błąd reklamę.
- Federalna ustawa o etykietowaniu substancji niebezpiecznych (1960): Niniejsza ustawa wymaga umieszczania ostrzeżeń na etykietach wszystkich produktów gospodarstwa domowego, które zawierają potencjalnie niebezpieczne składniki.
- Ustawa o ochronie dzieci (1966): Niniejsza ustawa wzmacnia federalną ustawę o etykietowaniu substancji niebezpiecznych, zakazując sprzedaży niebezpiecznych zabawek i innych artykułów używanych przez dzieci, zwłaszcza tych zawierających zagrożenia elektryczne, mechaniczne lub termiczne.
- Ustawa o uczciwym pakowaniu i etykietowaniu (1966): Głównym celem tej ustawy jest zakazanie oszukańczego pakowania niektórych towarów konsumpcyjnych. Drugim celem jest odpowiednie informowanie konsumentów o ilości i składzie produktów oraz promowanie praktyk opakowaniowych ułatwiających konsumentom porównywanie cen. Aby zachować zgodność z prawem, firmy muszą umieścić na etykiecie następujące informacje: nazwę produktu i producenta, ilość netto zawartości wyrażoną w odpowiedniej kategorii (uncje/gramy, pinty, litry) oraz istotne informacje o składnikach.
- Ustawa o bezpieczeństwie ruchu drogowego i pojazdów mechanicznych (1966): Ustawa ta upoważnia rząd federalny do ustanawiania i egzekwowania norm bezpieczeństwa dla wszystkich nowych i używanych samochodów oraz opon.
- Ustawa o etykietowaniu papierosów (1965): Ustawa ta wymaga, aby wszystkie opakowania papierosów i reklamy zawierały oświadczenie: "Ostrzeżenie: Generalny Lekarz Stanów Zjednoczonych stwierdził, że palenie papierosów jest szkodliwe dla zdrowia".
- Ustawa o bezpieczeństwie produktów konsumenckich (1972): Ustawa ta powołała Komisję ds. Bezpieczeństwa Produktów Konsumenckich i przyznała jej szerokie uprawnienia do przeprowadzania testów produktów, ustalania norm bezpieczeństwa, zakazywania lub konfiskaty produktów niebezpiecznych oraz wnoszenia pozwów cywilnych i karnych przeciwko firmom, które nie spełniają wymogów bezpieczeństwa produktów.
- Ustawa o poprawie działalności Federalnej Komisji Handlu (1975): Ustawa ta rozszerzyła uprawnienia FTC na różne sposoby; w szczególności przyznała FTC uprawnienia do ustalania zasad dotyczących gwarancji na produkty konsumenckie i umożliwiła jej dochodzenie roszczeń od konsumentów w formie pozwów zbiorowych.
- Ustawa o etykietowaniu i edukacji żywieniowej (1990): Celem tej ustawy jest wyjaśnienie i wzmocnienie uprawnień prawnych FDA do wymagania oznaczania żywności etykietami żywieniowymi oraz określenia okoliczności, w których można formułować oświadczenia dotyczące składników odżywczych w żywności. Ustawa obejmuje wyłącznie składniki odżywcze lub substancje w żywności, które "odżywiają"; w żaden sposób nie reguluje ona substancji nieodżywczych w żywności. Ponadto, ustawa wymaga, aby etykiety ujawniały ilość określonych składników odżywczych w żywności. Każda objęta ustawą żywność miałaby jednolitą etykietę żywieniową, która ujawniałaby ilość kalorii, tłuszczu, soli i innych składników odżywczych. Aby te informacje były zrozumiałe, ustawa nakłada na FDA obowiązek wydania standardów, zgodnie z którymi na etykiecie żywności powinny być umieszczane jednolite porcje. W przypadku gdy pełne oznakowanie jest niepraktyczne, ustawa przewiduje wyjątek lub wymaga podania informacji w zmodyfikowanej formie. Przykładem podmiotów kwalifikujących się do tego zwolnienia jest restauracja. Spełnienie wymogów ustawy byłoby dla restauracji niezwykle trudne i kosztowne, dlatego restauracje są z niej wyłączone.
Hula Hoop, Pet Rock i Cabbage Patch Kid to szaleństwa znane jako mody. Produkty te, jak większość modów, szybko weszły na rynek, wywołały obsesję konsumentów, sprzedały się w milionach sztuk w krótkim czasie i równie szybko spadły. Ich specjalny cykl życia produktu, charakteryzujący się szybką, spektakularną sprzedażą i gwałtownym, drastycznym spadkiem, różni się od pięcioetapowej koncepcji cyklu życia produktu, obejmującej rozwój produktu, wprowadzenie, wzrost, dojrzałość i spadek. Mody mają ograniczoną liczbę zwolenników i mają tendencję do szybkiego wygasania, ponieważ nie zaspokajają silnych potrzeb konsumentów.
CYKL ŻYCIA PRODUKTU
Przebieg, w jakim sprzedaż i zyski produktu przechodzą przez jego cykl życia, to cykl życia produktu (PLC). Marketerzy wiedzą, że wszystkie produkty będą miały jakiś rodzaj cyklu życia, ale jego kształt i długość nie są znane z góry. Na pierwszym etapie cyklu, rozwoju produktu, formułowany jest pomysł na produkt i rozpoczyna się jego rozwój. Na tym etapie sprzedaż jest zerowa, rozpoczynają się badania konsumenckie, a promocja składa się z public relations. Następny etap, wprowadzenie, charakteryzuje się okresem powolnego wzrostu sprzedaży, ale nie osiąga się zysków z powodu wysokich początkowych inwestycji i kosztów promocji. Firma zaczyna informować konsumentów o produkcie za pośrednictwem reklamy, a dystrybucja produktu jest selektywna. Trzeci etap PLC, wzrost, to czas szybkiej akceptacji rynku i wzrostu zysków. Dystrybucja produktu staje się bardziej powszechna, a reklama zmienia się z informacyjnej na perswazyjną. Zdając sobie sprawę z możliwości zysku, konkurenci wchodzą na rynek, co powoduje ekspansję rynku. Wydatki promocyjne pozostają takie same lub nieznacznie rosną. Ceny mogą zostać obniżone na etapie wzrostu, aby przyciągnąć nowych klientów. Czwarty etap PLC, dojrzałość, to okres powolnego wzrostu sprzedaży i stabilizowania się lub spadku zysków. Większość potencjalnych nabywców została już osiągnięta, więc żaden nowy klient nie kupuje produktu. Ten etap stawia przed marketerami największe wyzwania. Aby zapobiec wejściu w etap spadku, działy badań i rozwoju mogą wprowadzać modyfikacje produktu, aby sprostać zmieniającym się potrzebom konsumentów, dystrybucja staje się ponownie selektywna, a reklama staje się konkurencyjna ze względu na liczbę konkurentów, którzy weszli na rynek. Sprzedaż spowalnia, a zyski spadają w etapie spadku, zwykle z powodu postępu technologicznego, zmiany gustu konsumentów lub zwiększonej konkurencji. Dystrybucja staje się ekskluzywna, a promocje sprzedaży są opracowywane. Produkty w etapie spadku powinny mieć regularnie przeglądane trendy sprzedaży, udziału w rynku, kosztów i zysków, aby menedżerowie mogli zdecydować, czy utrzymać produkt, zebrać produkt (zmniejszyć różne koszty związane z produktem) czy usunąć produkt z linii produktów. Teraz przeanalizujmy i omówmy cykl życia produktu w przypadku mód.
CYKL ŻYCIA PRODUKTU MODA
Hula Hoop został nazwany "największą modą ze wszystkich". Opracowany w 1957 roku przez twórców Wham-O, Richarda Knerra i Arthura "Spud" Melina, został wzorowany na australijskiej zabawce. Prototyp został opracowany i przetestowany na amerykańskich placach zabaw i okazał się mieć najdłuższą "wartość zabawową". Po zaledwie czterech miesiącach na rynku sprzedano 25 milionów Hula Hoop. W ciągu niecałego roku sprzedaż prawie całkowicie ustała, a konkurencja wzrosła, więc Wham-O wszedł na rynki zagraniczne i kontynuował swój sukces. Łącznie producenci zabawek zarobili 45 milionów dolarów na Hula Hoop. Cykl życia Hula Hoop nie był typowy dla większości produktów. Prototyp został opracowany i przetestowany na etapie rozwoju produktu, ale Hula Hoop ominął etap wprowadzenia i dzięki szybkiej sprzedaży zabawka szybko weszła w fazę wzrostu. Ponownie, Hula Hoop ominął etap dojrzałości i przeszedł bezpośrednio w fazę spadku, a sprzedaż niemal natychmiast się zatrzymała. Cykle życia innych trendów poszły w ślady tego modelu. Gary Dahl stworzył Pet Rock w latach 70., narzekając, że psy, koty i inne zwierzęta domowe są zbyt brudne, niegrzeczne i drogie. Zamiast tego Dahl miał Pet Rock, który był łatwy w pielęgnacji i tani; miał też świetną osobowość. Dahl napisał Pet Rock Training Manual i stworzył Pet Rock z kamienia Rosarita Beach, który kosztował go grosza. W październiku 1975 r. Dahl zapakował Pet Rock w pudełko prezentowe w kształcie torby transportowej dla zwierząt, dołączył instrukcję szkoleniową i sprzedał je za 3,95 USD. W ciągu kilku miesięcy Dahl sprzedał milion kamieni i natychmiast stał się milionerem. Do lutego następnego roku sprzedaż ustała. W przeciwieństwie do Hula Hoop, Pet Rock nie był testowany na etapie rozwoju produktu. Dahl miał pomysł na produkt i szybko go wyprodukował bez testowania rynkowego. Podobnie jak Hula Hoop, Pet Rock szybko zyskał popularność wśród konsumentów, osiągnął szczyt cyklu życia na etapie wzrostu i w bardzo krótkim czasie przeszedł w fazę spadku. Artysta Xaiver Roberts stworzył Cabbage Patch Kids, pierwotnie nazywane "Little People", w 1977 roku. Szmatkowa lalka została "dostarczona" do BabyLand General Hospital, byłej kliniki medycznej w Cleveland w stanie Georgia, gdzie Roberts kazał swoim pracownikom ubierać się w białe uniformy pielęgniarek i lekarzy. Sprzedaż lalek określano mianem "adopcji", a każda lalka była dostarczana z aktem urodzenia i dokumentami adopcyjnymi. Roberts sprzedał 250 000 lalek w cenach od 125 do 1000 dolarów. Krajowa mania na punkcie Cabbage Patch wybuchła, gdy Roberts podpisał kontrakt z Coleco w 1982 roku, a modele za 25 dolarów zaczęły sprzedawać się w całych Stanach Zjednoczonych. W pierwszym roku na rynku sprzedano około 2,5 miliona lalek Cabbage Patch Kids. Ale tak jak poprzednie mody, Cabbage Patch Kid stracił dominującą pozycję na rynku do 1985 roku. Cabbage Patch Kid miał standardowy etap rozwoju produktu, ale etap jego wprowadzenia był krótki. Niedługo po trafieniu na półki sklepów z zabawkami sprzedaż gwałtownie wzrosła, a produkt wszedł w fazę wzrostu z pełną mocą. Wszedł w fazę dojrzałości, gdy sprzedaż zaczęła się stabilizować, a podaż była większa niż popyt. Aby zapobiec wejściu produktu w fazę spadku, marketingowcy w Coleco eksperymentowali z rozszerzeniami produktu - ale bezskutecznie. Ostatecznie zyski zaczęły spadać, a Cabbage Patch Kid wpadł w fazę spadku. Rysunek 1 przedstawia cykl życia produktu w fazie spadku. Mody są zazwyczaj tajemnicą zarówno dla ich twórców, jak i dla opinii publicznej. Chociaż ich produkty były wyjątkowe, Wham-O, Dahl i Roberts nie mieli pojęcia, że odniosą tak szybki sukces. Poprzednie mody obejmowały kostkę Rubika, Beanie Babies i Furbee. Większość modów nigdy tak naprawdę całkowicie nie umiera, ale nigdy nie odzyskują swojej pierwotnej popularności. Aby zrozumieć obsesję konsumentów na punkcie modnych trendów, specjaliści ds. marketingu muszą zrozumieć zachowania zakupowe konsumentów.
ZACHOWANIA KONSUMENTÓW DOTYCZĄCE ZAKUPÓW
Istnieją cztery rodzaje zachowań zakupowych: złożone zachowania zakupowe, zachowania zakupowe redukujące dysonans, nawykowe zachowania zakupowe i zachowania zakupowe polegające na poszukiwaniu różnorodności. Złożone zachowania zakupowe występują, gdy konsument kupuje coś drogiego lub ryzykownego, na przykład komputer osobisty. Konsument musi poznać linię produktów, jest bardzo zaangażowany w proces zakupu i dostrzega znaczące różnice między markami. Marketerzy muszą odróżniać cechy swoich produktów od cech innych marek. Zachowania zakupowe redukujące dysonans występują, gdy dokonuje się drogiego lub ryzykownego zakupu, ale konsument nie dostrzega żadnej różnicy między markami. Może kupić markę, która oferuje najlepszą cenę lub jest najwygodniejsza do kupienia. Nawykowe zachowania zakupowe obejmują niskie zaangażowanie konsumenta i niewielkie zainteresowanie różnicami między markami. Zachowania zakupowe polegające na poszukiwaniu różnorodności charakteryzują się niskim zaangażowaniem konsumenta, ale znacznymi różnicami między markami. Konsumenci wykazujący ten typ zachowań zakupowych często zmieniają marki, aby doświadczyć różnorodności, a nie z powodu niezadowolenia. Nabywcy mody wykazują zachowania zakupowe polegające na poszukiwaniu różnorodności. Kupujący Beanie Babies są lojalni wobec marki Ty; nie kupią konkurencyjnych marek. Wielu konsumentów, którzy kupują Beanie Babies, przechodzi na kolejną modę, gdy tylko pojawi się na półkach. PokeMon stał się najnowszą modą w 2000 r., a poszukiwacze różnorodności ponownie przeszli na ten najnowszy trend. Dopóki wymagania i obsesje konsumentów nie przestaną istnieć, mody pozostaną.
Ustawa Federal Trade Commission Act z 1914 r. zakazuje nieuczciwych metod, działań i praktyk konkurencji w handlu międzystanowym. Utworzono również Federal Trade Commission, dwupartyjną komisję pięciu osób mianowanych przez prezydenta, zatwierdzoną przez Senat, w celu nadzorowania naruszeń ustawy. Funkcją Federal Trade Commission (FTC) jest przeciwdziałanie oszukańczym działaniom i praktykom oraz zachowaniom antykonkurencyjnym przedsiębiorstw. FTC egzekwuje ustawy Clayton i Federal Trade Commission Acts, a także szereg innych ustaw antymonopolowych i dotyczących ochrony konsumentów. Uprawnienia FTC do stanowienia przepisów umożliwiają jej wydawanie przepisów interpretujących ustawy antymonopolowe, które regulują wszystkich członków branży lub mają zastosowanie do określonych praktyk biznesowych. W przypadku naruszenia przepisów FTC może wszcząć postępowanie cywilne w federalnym sądzie okręgowym w celu uzyskania nakazu sądowego i odszkodowania cywilnego. FTC (oraz przepisy ustaw antymonopolowych, które ją poprzedzały) promuje wolną i uczciwą konkurencję handlową poprzez badanie i zapobieganie naruszeniom prawa. Główne obszary objęte ustawą o Federalnej Komisji Handlu z 1914 r., jak również innymi przepisami antymonopolowymi, obejmują:
Ustalanie cen: Istnieją dwa rodzaje ustalania cen: pionowe i poziome. Pionowe ustalanie cen ma miejsce, gdy producenci zawierają wyraźne lub dorozumiane umowy ze swoimi klientami, zobowiązując ich do odsprzedaży po cenie ustalonej przez producenta. Producenci mogą sugerować ceny detaliczne, ale nie ustalać ich w drodze umowy. Niewielu sprzedawców jest przyłapanych na pionowym ustalaniu cen; zamiast tego zastraszają sprzedawców detalicznych, odcinając sprzedaż (Garman, 1997). Poziome ustalanie cen ma miejsce, gdy konkurenci zawierają bezpośrednie umowy dotyczące ilości towarów, które zostaną wyprodukowane, zaoferowane do sprzedaży lub kupione. Według Garmana (1997) w jednym przypadku umowa zawarta przez duże rafinerie ropy naftowej w celu zakupu i przechowywania nadwyżki produkcji małych niezależnych rafinerii została uznana za nielegalną, ponieważ celem umowy było wpłynięcie na cenę rynkową benzyny poprzez sztuczne ograniczenie dostępności dostaw. Rząd może podjąć działania, cywilne i/lub karne, w przypadku ustalania cen.
Nieuczciwa konkurencja: Polityka FTC i poprzedzające ją polityki antymonopolowe są zgodne co do koncepcji nieuczciwej konkurencji. Przykładami nieuczciwej konkurencji są większe firmy wykorzystujące swoją wielkość lub siłę rynkową do uzyskania niższych cen od dostawców lub producent udzielający rabatów na te same produkty sprzedawane większym firmom bez udzielania podobnych rabatów mniejszym firmom, gdy koszty sprzedaży nie ulegają zmianie.
Zakaz fuzji: Fuzja to przejęcie jednej firmy przez inną. FTC ustanowiła wytyczne i kryteria, które kwestionują fuzje zmniejszające konkurencję. Orzeczenie sądów stanowi, że ograniczenie handlu występujące w wyniku fuzji musi być nieuzasadnione i nierozsądne, aby zostało uznane za nielegalne.
Praktyki wprowadzające w błąd: Fałszywa reklama jest jednym z przykładów praktyk wprowadzających w błąd. FTC uważa reklamę za wprowadzającą w błąd, jeśli zawiera ona błędne przedstawienie lub pominięcie, które może wprowadzić w błąd konsumentów działających rozsądnie w danych okolicznościach na ich niekorzyść.
Mimo że istnieją różnice zdań co do skuteczności polityki antymonopolowej, wszyscy - konsumenci, konkurenci i potencjalni właściciele firm - korzystają na bardziej konkurencyjnej gospodarce. Tak więc polityka antymonopolowa jest ważnym elementem polityki publicznej dotyczącej biznesu. Niestety, istnieją ograniczenia tego, co jest osiągane, głównie dlatego, że kwota funduszy przekazywana przez Kongres na kwestie antymonopolowe ma znaczący wpływ na egzekwowanie. Jedna sprawa, taka jak sprawa Microsoftu z 1999 r., może spowodować poważne uszczerbki w budżecie FTC.
Finanse korporacyjne lub biznesowe to zasadniczo metodologia alokacji zasobów finansowych o wartości finansowej w optymalny sposób, aby zmaksymalizować bogactwo przedsiębiorstwa. W tym procesie alokacji należy podjąć trzy główne decyzje: budżetowanie kapitału, finansowanie i polityka dywidendowa. Budżetowanie kapitału to decyzja dotycząca wyboru inwestycji, które mają zostać dokonane z zasobów wniesionych do przedsiębiorstwa lub zarobionych i zatrzymanych przez przedsiębiorstwo. Wybór zależy od zysków, jakie mają zostać osiągnięte z inwestycji przekraczających koszt kapitału. Metodą stosowaną w tym celu jest zdyskontowana wartość czasowa pieniądza przepływu środków pieniężnych z inwestycji. Wartość ta jest wewnętrzną stopą zwrotu (IRR), miarą zwrotu z inwestycji. Gdy IRR przekroczy wymagany zwrot, który jest równy kosztowi zainwestowanych środków - patrz średni ważony koszt kapitału poniżej - wówczas należy dokonać inwestycji. Jeśli taki wymagany zwrot zostanie użyty jako stopa dyskontowa, jest to równoznaczne ze stwierdzeniem, że inwestycja przyniesie dodatnią wartość bieżącą netto (NPV). Jeśli można dokonać dwóch lub więcej inwestycji, ale są one wzajemnie wykluczające się, należy je uszeregować; należy wybrać tę o najwyższej wartości bieżącej netto. Jeśli istnieje ograniczona ilość środków do zainwestowania, niektórzy bankierzy lub doradcy, którzy uzyskują dodatkowe środki dla firmy, mogą wymagać, aby firma dokonała wyboru spośród inwestycji, aby nie przekroczyć ograniczonego poziomu dostępnych środków. Ten proces selekcji, który nazywa się racjonowaniem kapitału, należy przeprowadzić w podobny sposób, aby uszeregować projekty, wybierając kombinację inwestycji, które nie przekraczają całkowitych dostępnych środków i które przynoszą maksymalną całkowitą wartość bieżącą netto. Finansowanie to decyzja, które zasoby lub środki mają zostać wniesione do firmy od zewnętrznych inwestorów i wierzycieli w celu zainwestowania w dochodowe projekty. Pierwszym zewnętrznym źródłem finansowania jest dług, który obejmuje pożyczki z banków i obligacje zakupione przez posiadaczy obligacji. Wierzyciele długu ponoszą mniejsze ryzyko braku spłaty, ponieważ firma musi im spłacić, jeśli będą dostępne środki, aby to zrobić, gdy dług stanie się wymagalny. Drugim zewnętrznym źródłem finansowania jest kapitał własny, który obejmuje akcje zwykłe i akcje uprzywilejowane. Inwestorzy kapitałowi w biznesie podejmują większe ryzyko biznesowe i mogą nie otrzymać zapłaty, dopóki wierzyciele nie zostaną spłaceni, a zarząd firmy nie zdecyduje się na zwrot środków inwestorom. Celem decyzji o finansowaniu jest uzyskanie wszystkich niezbędnych zasobów, dokonanie wszystkich inwestycji, które przynoszą zwrot przekraczający koszt zainwestowanych środków lub wymaganą stopę zwrotu oraz uzyskanie tych środków przy najniższym średnim koszcie, tak aby obniżyć wymaganą stopę zwrotu i zwiększyć wartość bieżącą netto wybranych projektów. Polityka dywidendowa to decyzja dotycząca środków, które mają zostać rozdysponowane lub zwrócone inwestorom kapitałowym. Można to zrobić za pomocą dywidend z akcji zwykłych, dywidend z akcji uprzywilejowanych lub odkupu akcji przez firmę z jej własnych akcji. Celem tej decyzji jest zatrzymanie zasobów w firmie, które są wymagane do prowadzenia firmy lub dokonanie dodatkowych inwestycji w firmę, o ile uzyskane zwroty przekraczają wymagany zwrot. Teoretycznie zarząd powinien zwrócić lub rozdysponować wszystkie zasoby, których nie można zainwestować w firmę na poziomach przekraczających wymagany zwrot. W praktyce jednak dywidendy są często utrzymywane na pewnych poziomach lub zmieniane w celu przekazywania właściwych sygnałów inwestorom i rynkom finansowym. Na przykład dywidendy mogą być utrzymywane na umiarkowanych poziomach, aby wykazać stabilność, utrzymywane na niskich poziomach lub obniżane do niskich, aby wykazać możliwości wzrostu dla przedsiębiorstwa, lub zwiększane do wyższych poziomów, aby wykazać przywrócenie silnej struktury finansowej (kapitału) (dług i kapitał własny) dla przedsiębiorstwa. Kapitał to suma środków finansowych zainwestowanych w działalność gospodarczą. Pod względem źródeł istnieją dwa rodzaje kapitału: oprocentowane fundusze dłużne, takie jak pożyczki, obligacje, krótkoterminowe weksle i oprocentowane zobowiązania wobec dostawców handlowych; oraz kapitał własny, taki jak akcje zwykłe i uprzywilejowane oraz zyski zatrzymane w działalności gospodarczej, które zwiększają udziały akcjonariuszy w podmiotach. Pod względem zastosowań istnieją również dwa rodzaje kapitału: kapitał obrotowy netto, taki jak gotówka operacyjna, zapasy i należności, pomniejszony o nieoprocentowane zobowiązania wobec dostawców handlowych; oraz kapitał stały, taki jak nieruchomości, zakłady i wyposażenie. Kapitałem zarządza się w celu maksymalizacji bogactwa poprzez maksymalizację stóp zwrotu z inwestycji kapitału, a tym samym maksymalizację całkowitej wartości bieżącej netto działalności gospodarczej. Można to zrobić poprzez minimalizację kwoty kapitału wykorzystanego na dane inwestycje biznesowe przy danych zwrotach z działalności gospodarczej. Średnioważony koszt kapitału to średnia ważona zwrotów z inwestycji lub przyszłych dywidend dla akcjonariuszy i stóp procentowych od długu dla wierzycieli. Ten średni zwrot powinien być używany jako wymagany zwrot z inwestycji, jak wspomniano wcześniej, ponieważ stanowi on średnią ważoną wymaganych zwrotów wszystkich różnych wierzycieli dłużnych i inwestorów kapitałowych. Stanowi on również średnią ważoną kosztów, które może zaoszczędzić firma, jeśli zasoby lub środki finansowe zostaną zwrócone wierzycielom i inwestorom, zamiast być wykorzystane na inwestycje w ramach firmy. Struktura kapitałowa jest reprezentowana przez rodzaje źródeł funduszy kapitałowych zainwestowanych w firmę. Powszechnym miernikiem źródeł jest procent długu w stosunku do kapitału własnego, który pojawia się w bilansie firmy. Zazwyczaj koszt lub wymagane zwroty z długu są znacznie niższe niż kapitał własny, zwłaszcza po opodatkowaniu. Tak więc całkowity koszt kapitału spada, gdy niektóre fundusze dłużne od wierzycieli są zastępowane funduszami kapitałowymi od inwestorów. Jednak w miarę dodawania większego długu firma staje się bardziej ryzykowna z powodu wyższej kwoty stałych płatności, które muszą być dokonywane na rzecz wierzycieli, niezależnie od tego, czy firma generuje wystarczające fundusze z zysków; a następnie koszty zarówno funduszy dłużnych, jak i kapitałowych rosną do punktu, w którym wzrasta średni ważony koszt. Przejęcia, które są zakupami innych firm, są po prostu innym rodzajem inwestycji budżetowania kapitałowego dla firmy. Takie zakupy powinny być oceniane w taki sam sposób, jak każda inna inwestycja kapitałowa, jak opisano wcześniej, aby uzyskać maksymalną dodatnią wartość bieżącą netto, chociaż kwestie i dane są często bardziej złożone do analizy. Współczynnik cena/zysk jest często używany przy dokonywaniu przejęć jako skrócona miara wyceny. Ten współczynnik to wartość lub cena firmy lub jej akcji do jej zysków. Jednak faktyczna decyzja o dokonaniu przejęcia jest decyzją budżetowania kapitałowego; wynikowe ustalenie ceny lub wartości bieżącej netto można następnie opisać w kategoriach względnych do zysków we współczynniku cena/zysk. Zwroty dla każdej firmy lub konkretnego długu lub inwestycji dokonanej w firmę to po prostu przepływy pieniężne, które ostatecznie zostaną zarobione przez firmę lub konkretnych wierzycieli i akcjonariuszy. Mogą być wyrażone w dolarach lub jako procenty, przy czym ten ostatni jest średnim rocznym procentem przepływów pieniężnych w stosunku do całkowitej inwestycji w firmę lub konkretnych kwot długu lub akcji. W przypadku instrumentów dłużnych te stopy procentowe nazywane są stopami procentowymi. W przypadku konkretnych decyzji inwestycyjnych, użyte zwroty powinny być tymi, które są przyrostowe w stosunku do konkretnej inwestycji. Stopy zwrotu/oprocentowania opierają się na trzech składnikach: czystym zwrocie dla inwestora lub wierzyciela dostarczającego fundusze; pokryciu stóp inflacji, tak aby siła nabywcza wpływów była utrzymywana niezależnie od prawdziwego zwrotu; oraz dodatkowym zwrocie za dodatkowe ryzyko, takie jak inwestycja kapitałowa w ryzykowny biznes w przeciwieństwie do obligacji rządu USA. Następnie składniki te są ze sobą łączone, a nie tylko dodawane, w celu uzyskania ogólnej stopy procentowej lub wymaganego zwrotu z inwestycji kapitałowej. Podczas obliczania zwrotu lub stóp procentowych, wszelkie dodatkowe pieniądze z góry, takie jak koszty zamknięcia, muszą być również dodane do inwestycji; ta kwota zwiększa lub zmniejsza zwrot, w zależności od tego, kto za nią płaci. Wartości rezydualne to część zysków, które mają zostać osiągnięte w inwestycji i które są zwracane firmie, gdy inwestycja zostanie sprzedana lub projekt zostanie zakończony. Może to być najważniejsze w przypadku likwidacji zapasów i należności, gdy operacje części firmy zostaną zakończone lub gdy nieruchomość przestanie być potrzebna i w związku z tym może zostać sprzedana, na przykład gdy fabryka zostanie zamknięta lub gdy okres leasingu dobiegnie końca. Terminy zapadalności instrumentów dłużnych, takich jak obligacje, pożyczki lub weksle płatne, to kwoty czasu pozostałego do spłaty przed terminem wymagalności długu. Reguła zarządzania finansami w odniesieniu do terminów zapadalności polega na dopasowaniu okresu trwania środków pożyczanych przez dłużnika lub inwestowanych przez wierzyciela do czasu zaspokojenia przez niego lub jej własnych potrzeb finansowych w przyszłości. W ten sposób finansowanie nowego biznesu - z prawdopodobną przyszłą ekspansją środków trwałych, zakładów, wyposażenia, zapasów i należności - może zostać przeprowadzone przy użyciu długoterminowych funduszy dłużnych. Jednak finansowanie konkretnej, krótkoterminowej potrzeby, takiej jak wydatki na projekt budowlany przed dokonaniem płatności za ukończenie, powinno mieć porównywalnie krótszy okres zapadalności. Podobnie, inwestycja tymczasowej nadwyżki gotówki powinna być dokonywana w instrumentach krótkoterminowych, takich jak krótkoterminowe CD lub bony skarbowe. Jeśli terminy zapadalności nie są dopasowane, dodatkowy czas przed wymagalnością długu od lub do Ciebie staje się okresem spekulacji na temat wzrostu lub spadku przyszłych stóp procentowych. Finanse międzynarodowe dotyczą tej samej metodologii alokacji zasobów finansowych, ale ze zmianami lub obszarami nacisku wymaganymi przez ograniczenia walut i przepływów kapitału między krajami oraz różnice w walutach używanych w różnych krajach. Poniższe akapity przedstawiają niektóre z głównych zmian w podstawowych decyzjach finansowych:
1. Budżetowanie kapitału zagranicznego wymaga wykorzystania zagranicznych przepływów pieniężnych i lokalnych stawek podatkowych, ale można użyć amerykańskich stóp inflacji i dolarów amerykańskich według bieżących kursów wymiany. Wymagany zwrot lub koszt kapitału należy wówczas dostosować, jak w przypadku każdej inwestycji, jedynie do większego lub mniejszego ryzyka projektu, w który dokonywana jest inwestycja, co obejmuje większe lub mniejsze ryzyko kraju, w którym dokonywana jest inwestycja.
2. Rynki kapitałowe zagraniczne są źródłem zarówno funduszy dłużnych, jak i kapitałowych, zarówno dla zagranicznych operacji zależnych, jak i ogólnych potrzeb całego biznesu. Struktury kapitałowe zagranicznych spółek zależnych często wykorzystują więcej lokalnego długu, gdy jest to prawnie i praktycznie dostępne, w celu zmniejszenia ryzyka zablokowania zarobionych środków przed repatriacją do spółki dominującej w innym kraju. Ponadto dług w walucie lokalnej zmniejsza ryzyko dla spółki dominującej, jeśli kursy wymiany waluty lokalnej ulegną niekorzystnej zmianie.
3. Kursy wymiany walut mogą się drastycznie zmieniać, a zatem stanowią znaczne ryzyko dla wartości aktywów przechowywanych w obcych krajach lub przyszłych płatności z zagranicy. Te ekspozycje mogą mieć miejsce w relacjach z osobami trzecimi lub w ramach własnych zagranicznych spółek zależnych firmy. Kontrakty terminowe na waluty lub opcje walutowe, instrumenty służące do zakupu jednej waluty za inną walutę w przyszłości po gwarantowanych kursach wymiany, mogą być wykorzystywane do ochrony przed takim ryzykiem. Chociaż kontrakty te są często wykorzystywane również do osiągania zysków przez menedżerów, którzy uważają, że kursy wymiany zmienią się w sposób inny niż oczekiwania wynikające z ogólnego rynku walutowego, takie wykorzystanie należy postrzegać jako ryzykowną spekulację.
4. Finanse osobiste dotyczą tej samej metodologii alokacji zasobów, ale z większym naciskiem na alokację części z nich w celu uzyskania maksymalnej satysfakcji konsumpcyjnej przy najniższym koszcie, w przeciwieństwie do uzyskiwania dochodów i zwrotów przepływów pieniężnych z inwestycji.
5. Budżetowanie i planowanie finansowe to procesy wykorzystywane przez menedżerów finansowych do prognozowania przyszłych wyników finansowych dla firmy, osoby lub konkretnej inwestycji. Zazwyczaj główne składniki zysków, przepływów pieniężnych i kapitału są prognozowane w formie prognozowanych rachunków zysków i strat, rachunków przepływów pieniężnych i bilansów. Te ostatnie pokazują, gdzie inwestowane są środki kapitałowe w składniki kapitału stałego i obrotowego, a także źródła tych środków kapitałowych w postaci długu, akcji i zysków zatrzymanych.
PROBLEMY Z ZASTOSOWANIEM FINANSÓW KORPORACYJNYCH I WYCENĄ
Oszacowanie kosztu kapitału. W ostatnich dekadach teoretyczne przełomy w takich obszarach jak dywersyfikacja portfela, efektywność rynku i wycena aktywów zbiegły się w przekonujące zalecenia dotyczące kosztu kapitału dla korporacji. Koszt kapitału jest centralnym punktem nowoczesnych finansów, dotykając decyzji inwestycyjnych i wyprzedażowych, pomiaru zysku ekonomicznego, oceny wyników i systemów zachęt. Każdego roku w Stanach Zjednoczonych korporacje ponoszą wydatki przekraczające 500 miliardów dolarów, więc sposób, w jaki firmy szacują koszt, nie jest trywialną sprawą. Kluczowym spostrzeżeniem z teorii finansów jest to, że każde wykorzystanie kapitału nakłada na inwestorów koszt alternatywny; mianowicie fundusze są odwracane od zarabiania zwrotu z najlepszej inwestycji o równym ryzyku. Ponieważ inwestorzy mają dostęp do wielu możliwości na rynku finansowym, korporacyjne wykorzystanie kapitału musi być porównywane z tymi alternatywami rynku kapitałowego. Koszt kapitału stanowi ten punkt odniesienia. Jeśli firma nie może zarobić więcej niż koszt kapitału, nie stworzy zysku ekonomicznego ani wartości dla inwestorów. Niedawne badanie wiodących praktyków wykazało następujące najlepsze praktyki:
• Zdyskontowany przepływ pieniężny (DCF) jest dominującą techniką oceny inwestycji.
• Średnioważony koszt kapitału (WACC) jest dominującą stopą dyskontową stosowaną w analizach DCF.
• Wagi opierają się na rynkowych, a nie księgowych, mieszankach wartości długu i kapitału własnego.
• Koszt długu po opodatkowaniu opiera się głównie na krańcowych kosztach przed opodatkowaniem, a także krańcowych lub ustawowych stawkach podatkowych.
• Model wyceny aktywów kapitałowych (CAPM) jest dominującym modelem szacowania kosztu kapitału własnego.
Modele wyceny zdyskontowanych przepływów pieniężnych. Parametry, z których składa się model DCF, są powiązane z ryzykiem (wymaganą stopą zwrotu) i samym zwrotem. Modele te wykorzystują trzy alternatywne miary przepływów pieniężnych: dywidendy, zyski księgowe i wolne przepływy pieniężne. Podobnie jak modele wyceny opartej na aktywach i DCF są równoważne przy założeniu doskonałych rynków, dywidendy, zyski i wolne przepływy pieniężne mogą dawać równoważne wyniki. Ich wdrożenie nie jest jednak proste. Po pierwsze, istnieje inherentna trudność w zdefiniowaniu przepływów pieniężnych używanych w tych modelach. Jakie przepływy pieniężne i do kogo one płyną? Koncepcyjnie przepływy pieniężne są definiowane inaczej w zależności od tego, czy celem wyceny jest kapitał własny firmy, czy wartość długu firmy plus kapitał własny. Zakładając, że możemy zdefiniować przepływy pieniężne, pozostaje nam kolejny problem. Modele potrzebują przyszłych przepływów pieniężnych jako danych wejściowych. W jaki sposób strumień przepływów pieniężnych jest szacowany na podstawie obecnych danych? Co ważniejsze, czy bieżące i przeszłe dywidendy, zyski lub przepływy pieniężne są najlepszymi wskaźnikami tego strumienia? Te pragmatyczne kwestie określają, który model powinien zostać użyty. Chociaż model dywidendy jest łatwy w użyciu, to stwarza dylemat koncepcyjny. Teoria finansów mówi, że polityka dywidendowa jest nieistotna. Model wymaga jednak prognozowania dywidend w nieskończoność lub przyjmowania założeń dotyczących wartości końcowej. Przykładem są firmy, które obecnie nie wypłacają dywidend. Takie firmy nie są bezwartościowe. W rzeczywistości firmy o wysokim wzroście często nie wypłacają dywidend, ponieważ reinwestują wszystkie dostępne im fundusze. Gdy wartość firmy jest szacowana przy użyciu modelu dyskontowania dywidend, zależy ona od poziomu dywidendy firmy po ustabilizowaniu się jej wzrostu. Przyszłe dywidendy zależą od strumienia zysków, jaki firma będzie w stanie wygenerować. Zatem oczekiwane przyszłe zyski firmy są fundamentalne dla takiej wyceny. Podobnie w przypadku firmy wypłacającej dywidendy, poziom dywidend może być uznaniowym wyborem kierownictwa, który jest ograniczony dostępnymi zyskami. Gdy dywidendy nie są wypłacane, wartość kumuluje się w firmie w formie reinwestowanych zysków. Alternatywnie, firmy czasami wypłacają dywidendy aż do bankructwa. Zatem dywidendy mogą powiedzieć więcej o alokacji zysków pomiędzy różnych wierzycieli niż wycena. Wszystkie trzy podejścia DCF opierają się na pomiarze przepływów pieniężnych do dostawców kapitału (dług i kapitał własny) dla firmy. Różnią się one jedynie wyborem pomiaru, przy czym podejście dywidendowe mierzy przepływy pieniężne bezpośrednio, a inne dochodzą do nich w sposób pośredni. Podejście wolnych przepływów pieniężnych dochodzi do pomiaru przepływów pieniężnych (jeśli firma jest kapitałem własnym) poprzez odjęcie inwestycji od przepływów pieniężnych z działalności operacyjnej, podczas gdy podejście zysków wyraża dywidendy pośrednio jako ułamek zysków.
Model wyceny aktywów kapitałowych. Jest to zestaw prognoz dotyczących oczekiwanych zwrotów równowagowych z ryzykownych aktywów. Harry Markowitz ustanowił podstawy nowoczesnej teorii portfela w 1952 roku. CAPM został opracowany dwanaście lat później w artykułach Williama Sharpe′a, Johna Lintnera i Jana Mossina. Prawie zawsze nazywany CAPM, jest centralnym elementem nowoczesnej ekonomii finansowej. Model daje nam precyzyjną prognozę związku, który powinniśmy obserwować między ryzykiem aktywów a oczekiwanym zwrotem. Ten związek pełni dwie ważne funkcje. Po pierwsze, zapewnia referencyjną stopę zwrotu do oceny możliwych inwestycji. Na przykład, jeśli analizujemy papiery wartościowe, możemy być zainteresowani tym, czy oczekiwany zwrot, który prognozujemy dla akcji, jest większy czy mniejszy od jej "sprawiedliwego" zwrotu, biorąc pod uwagę jej ryzyko. Po drugie, model pomaga nam dokonać wykształconego przypuszczenia co do oczekiwanego zwrotu z aktywów, które nie zostały jeszcze sprzedane na rynku. Na przykład, jak wyceniamy pierwszą ofertę publiczną akcji? Jak nowy projekt inwestycyjny wpłynie na zwrot, jakiego inwestorzy wymagają od akcji spółki? Chociaż CAPM nie wytrzymuje w pełni testów empirycznych, jest szeroko stosowany ze względu na wgląd, jaki oferuje, a jego dokładność wystarcza do wielu ważnych zastosowań. Chociaż CAPM jest dość złożonym modelem, można go sprowadzić do pięciu prostych pomysłów:
• Inwestorzy mogą wyeliminować część ryzyka (ryzyko niesystematyczne) poprzez dywersyfikację w wielu regionach i sektorach.
• Niektóre ryzyko (ryzyko systematyczne), takie jak ryzyko globalnej recesji, nie może zostać wyeliminowane poprzez dywersyfikację. Tak więc nawet koszyk ze wszystkimi akcjami na giełdzie nadal będzie ryzykowny.
• Ludzie muszą być nagradzani za inwestowanie w tak ryzykowny koszyk, zarabiając więcej niż te, które mogą uzyskać z bezpieczniejszych aktywów.
• Nagrody za konkretną inwestycję zależą tylko od tego, w jakim stopniu wpływa ona na ryzyko koszyka rynkowego.
• Wygodnie jest, że ten wkład w ryzyko koszyka rynkowego można uchwycić za pomocą jednej miary - "beta" - która wyraża związek między ryzykiem inwestycji a ryzykiem rynku.
Teoria finansów ewoluuje w odpowiedzi na innowacyjne produkty i strategie opracowywane na rynku finansowym oraz w ośrodkach badawczych.
Finanse korporacyjne, czyli pozyskiwanie i wykorzystywanie funduszy przez podmioty gospodarcze, ewoluowały wraz ze zmianą zakresu przedsiębiorstw i wraz ze wzrostem sukcesów amerykańskiego społeczeństwa w osiąganiu celów gospodarczych. Historia finansów w Stanach Zjednoczonych to opowieść, która rozpoczęła się od prymitywnych, nieuregulowanych sposobów zabezpieczania funduszy we wczesnych latach nowo powstałego państwa i osiągnęła w ostatnich dekadach XX wieku poziom zaawansowanej innowacji, który uczynił Stany Zjednoczone liderem finansowym w globalnej społeczności. Sukces funkcji finansowej w korporacyjnej Ameryce jest wynikiem połączenia innowacji biznesowych w projektowaniu i strategiach zabezpieczania funduszy oraz regulacji rządowych, które zapewniają integralność na rynkach finansowych. Istotne aspekty tego rozwoju omówiono w poniższych sekcjach.
WCZESNE FINANSE AMERYKAŃSKIE
W kolonialnych Stanach Zjednoczonych przedsiębiorstwa były w większości małe i samofinansujące się. Jednak pierwsi osadnicy, którzy byli poddanymi brytyjskimi, dobrze znali korporacyjną formę organizacji. Jak zauważył Davis (1917), "przed końcem okresu kolonialnego utworzono znaczną liczbę prawdziwie prywatnych korporacji w celach kościelnych, edukacyjnych, charytatywnych, a nawet biznesowych". Wiele z tych wczesnych wysiłków zakończyło się niepowodzeniem, a osoby, które w nie zainwestowały, często traciły cały swój wkład. Charakter problemów finansowych w tych wczesnych wysiłkach ilustruje historia organizacji o nazwie The Society for Establishing Useful Manufacturers. W listopadzie 1791 r. legislatura stanu New Jersey uchwaliła ustawę zakładającą to przedsiębiorstwo, które prawdopodobnie produkowało różne produkty, w tym papier, tekstylia, ceramikę i drut. Davis (1917) zidentyfikował tę firmę jako "jedną z pionierskich korporacji przemysłowych w Stanach Zjednoczonych i największą i najbardziej pretensjonalną z nich" . Plany nowej korporacji zostały ogłoszone publicznie, w tym krytykowana strategia pozyskiwania kapitału poprzez emisję akcji publicznych. Nacisk na rozwój krajowego przemysłu i zmniejszenie zależności od importu był atrakcyjny dla potencjalnych inwestorów, a prywatni obywatele otrzymywali zachęty od nowo utworzonego rządu federalnego do podejmowania działalności gospodarczej na szerszą skalę niż było to powszechne w tamtym czasie. W czasie, gdy prospekt emisyjny tego nowego przedsiębiorstwa był w obiegu, Alexander Hamilton, sekretarz Skarbu, przedstawił swój Raport o producentach, który został przygotowany w odpowiedzi na polecenie prezydenta Washingtona "przygotowania i przedstawienia Izbie Reprezentantów właściwego planu zachęcania i promowania takich manufaktur, które będą miały tendencję do uniezależnienia Stanów Zjednoczonych od innych narodów" (cytowane w Davis, 1917, s. 362). Niezbędny kapitał rzeczywiście został zebrany, a większość subskrypcji zabezpieczono w Nowym Jorku. Niedługo potem wybuchła panika, ponieważ nowe przedsięwzięcie nie postępowało zgodnie z planem. Główne biura i dyrektorzy byli głęboko zaangażowani w spekulacyjny boom, który był wówczas powszechny i nie zwracali uwagi na rzeczywistą działalność nowego przedsiębiorstwa. Następnie liderzy, którzy byli w posiadaniu większości wpłaconych funduszy, zbankrutowali. Ta historia ujawnia pokusę szybkiego wzbogacenia się i ogólną niekompetencję wśród liderów. Nie było praktycznie żadnych zasad ograniczających zachowanie liderów i przywłaszczali oni fundusze na własny użytek. Towarzystwo zostało uratowane dzięki pożyczce w wysokości 10 000 dolarów z Bank of New York i istnieją dowody na to, że sekretarz skarbu odegrał kluczową rolę w zabezpieczeniu tego finansowania. Jednak nadal istniały poważne problemy finansowe, przez cały okres, gdy budowano obiekty dla planowanych fabryk tekstylnych. Nowo mianowany skarbnik miał zostać objęty obligacjami, ale odmówił. Mimo to nadal pełnił tę funkcję. Kiedy przeszedł na emeryturę w 1796 r., księgi skarbnika i fundusze miały zostać pozostawione u zastępcy gubernatora. Księgi jednak nigdy nie zostały odzyskane. Nie jest jasne, czy odzyskano wszystkie środki. Operacje były nieopłacalne i zostały przerwane w tym samym roku.
FINANSE W LATACH 1800
Na progu XIX wieku Stany Zjednoczone miały żałosną historię udanych korporacji, co ilustruje wysiłek w New Jersey omówiony powyżej. Kraj był światem małych przedsiębiorstw handlowych. Na przykład w 1790 roku istniały tylko trzy banki, trzy firmy mostowe, kilka stowarzyszeń ubezpieczeniowych i tuzin firm kanałowych (Williamson, 1951). Jednak niektórzy przedsiębiorcy zaczęli dostrzegać wartość korporacji: Ryzyko związane z produkcją sprawiło, że ograniczona odpowiedzialność korporacji stała się atrakcyjna. Kilka stanów uchwaliło przydatne prawa. W 1811 roku Nowy Jork uchwalił prawo, które zezwalało na zakładanie niektórych rodzajów przedsiębiorstw produkcyjnych z kapitałem mniejszym niż 100 000 USD. Connecticut w 1817 roku i Massachusetts w 1830 roku przyznały ograniczoną odpowiedzialność, co było pierwszym krokiem w kierunku ogólnych aktów założycielskich. Celem takich aktów było zachęcenie do finansowania podmiotów poprzez strukturę korporacyjną i ochrona społeczeństwa, które mogłoby być skłonne do inwestowania w te nowe przedsiębiorstwa. W tym samym okresie rząd był znacząco zaangażowany w finansowanie przedsiębiorstw. Jak zauważył Cochran (1966):
Potrzeby kapitałowe bankowości i transportu spowodowały udział państwa w organizacji biznesu. Niewiele takich pionierskich przedsięwzięć wydawało się możliwych bez znaczących zakupów akcji i obligacji przez państwo, hrabstwo lub gminę. Kredyt państwa był zazwyczaj zastępowany częściowo kredytem prywatnej firmy poprzez emisję obligacji państwowych i wykorzystanie dochodów na zakup papierów wartościowych firmy.
Jednocześnie Cochran (1966) zauważył kilka poważnych wad nowej struktury własnościowej:
Swobodna i tajna przenoszalność własności korporacyjnej zachęcała do poważnych nadużyć ze strony nieuczciwych finansistów. Grupy zarządzające mogły czerpać osobiste zyski z rujnowania wielkich firm, a następnie sprzedawać je, zanim sytuacja stała się znana. Byli jednak sumienni mężczyźni, którzy byli zainteresowani produktywną wydajnością, jak również dążeniem do bogactwa. Wśród osób, które Cochran (1966) zidentyfikował, był Nathan Appleton:
Nathan Appleton… odwracając się od zajęć handlowych w 1813 r., dołączając do niektórych Lowellów i Jacksonów, zainwestował swój kapitał w produkcję tekstyliów na dużą skalę… Appleton zaczął być postrzegany jako lider biznesu w Massachusetts… Do 1840 r. on i jego bostońscy wspólnicy stworzyli we wschodnim Massachusetts miniaturę korporacyjnego społeczeństwa przemysłowego XX wieku. Kontrolowali bankowość, koleje, ubezpieczenia i firmy energetyczne, a także wielkie fabryki tekstylne rozsiane po całym stanie. To duża "nowoczesna" korporacja kontrolowana przez strategicznie zorganizowane bloki akcji i praktycznie samonapędzające się rady dyrektorów umożliwiły tę koncentrację władzy, ale należy pamiętać, że to również urządzenie do gromadzenia oszczędności tysięcy drobnych inwestorów doprowadziło do wielkiego rozwoju
W latach 1800. miały miejsce niezwykłe wydarzenia. Baskin i Miranti (1997) na przykład zauważyli, że "ostatnia ćwierć XVIII wieku była świadkiem początku wielkiej ekspansji gospodarczej, która zmieniła finanse korporacyjne w fundamentalny sposób" (s. 127). W tym okresie nastąpił rozległy rozwój kolei, które niezależnie stały się silnymi bastionami kapitalizmu finansowego. W tym okresie akcje uprzywilejowane i dług stały się popularnymi środkami finansowania korporacji. W ostatnich dekadach XIX wieku zaczęły pojawiać się stosunkowo szeroko rozpowszechnione czasopisma finansowe i gazety.
ROLA BANKÓW OD KOŃCA XIX W. DO LAT 20. XX W.
Bankierzy są kluczowi dla rozwoju gospodarczego. Schumpeter w swojej teorii rozwoju gospodarczego podkreślił rolę bankierów jako źródła funduszy dla przedsiębiorców, którym często brakuje zasobów finansowych. Schumpeter (1934) zauważył: "W gospodarce bez rozwoju nie byłoby takiego rynku pieniężnego… sedno sprawy leży w wymaganiach kredytowych nowych przedsiębiorstw… zatem główną funkcją rynku pieniężnego lub kapitałowego jest handel kredytem w celu finansowania rozwoju" (s. 122-127). Schumpeter niewątpliwie był w pełni świadomy doświadczeń Stanów Zjednoczonych i wpływu amerykańskich bankierów na imponujący wzrost amerykańskiej gospodarki od połowy XIX w. do wczesnej dekady XX wieku. Być może najbardziej imponującymi bankierami byli Morganowie. Jak podsumował Chernow (1990) w swojej historii Morganów: "Stary Dom Morganów sprzed 1935 r. był prawdopodobnie najpotężniejszym kombajnem finansowym w historii. Finansował wielu gigantów przemysłowych, w tym U.S. Steel, General Electric, General Motors, Du Pont i American Telephone and Telegraph". Pod koniec XIX wieku banki były kluczowym źródłem funduszy dla amerykańskich przedsiębiorstw. Ich rola zmieniła się jednak w XX wieku, gdy przedsiębiorstwa stały się większe, a rodzaje instytucji finansowych wzrosły.
ZMIANY W STRUKTURZE FINANSOWEJ
Struktura finansowa w Stanach Zjednoczonych zmieniła się w XX wieku. Badanie Goldsmitha (1969) dostarczyło porównania głównych typów amerykańskich instytucji finansowych w latach 1900 i 1963, pokazanych w Tabeli 1. Jak pokazuje Tabela 1, w 1900 r. 62,9 procent całkowitych aktywów wszystkich instytucji finansowych znajdowało się w posiadaniu banków komercyjnych; w 1963 r. odsetek ten wynosił 32,2. Podczas gdy instytucje oszczędnościowe, w tym wzajemne banki oszczędnościowe, stowarzyszenia oszczędnościowo-pożyczkowe, spółdzielnie kredytowe i pocztowe systemy oszczędnościowe, utrzymywały mniej więcej taki sam procent całkowitych aktywów (18,2 procent w 1900 r.; 16,9 procent w 1963 r.), wzajemne banki oszczędnościowe posiadały 15,1 procent całkowitych aktywów w 1900 r., ale tylko 5,1 procent w 1963 r. Stowarzyszenia oszczędnościowo-pożyczkowe, które miały 3,1 procent całkowitych aktywów w 1900 r., posiadały 10,9 procent w 1963 r. W 1900 r. grupa instytucji zidentyfikowanych jako "różne" obejmowała tylko firmy hipoteczne i dealerów papierów wartościowych. W 1963 r. kategoria "różne" obejmowała te, które istniały w 1900 r., a także firmy finansowe, firmy inwestycyjne, banki ziemskie i rządowe instytucje pożyczkowe (Goldsmith, 1969). Analiza Goldsmitha wykazała, że nadbudowa finansowa rośnie szybciej niż infrastruktura produktu narodowego i bogactwa narodowego. Zauważył, że w ciągu niecałych dwustu lat w społeczności międzynarodowej rozwinął się, jak to określił, nowoczesny system finansowy, charakteryzujący się: istnienie kilku podstawowych form instytucji finansowych (banków emisyjnych i depozytowych, banków oszczędnościowych, banków hipotecznych i towarzystw ubezpieczeniowych) oraz instrumentów finansowych (pieniądze papierowe [niemetalowe], weksle, należności i zobowiązania, depozyty bankowe i pożyczki udzielane przez instytucje finansowe, ubezpieczenia na życie i umowy emerytalne, kredyty hipoteczne, obligacje rządowe i korporacyjne oraz akcje korporacyjne). Paralelizm między rozwojem gospodarczym i finansowym można zaobserwować, jeśli weźmie się pod uwagę okresy kilku dekad. Dane Goldsmitha (1969) wykazały, że "w miarę wzrostu realnego dochodu i bogactwa, w ujęciu łącznym i na głowę ludności, rośnie wielkość i złożoność nadbudowy finansowej" (s. 48). Udziały aktywów posiadanych przez banki i instytucje oszczędnościowe nadal spadały. Podczas gdy oba typy instytucji finansowych posiadały 55,0 procent całkowitych aktywów w 1963 r., oba typy posiadały tylko 22,7 procent do końca 1999 r., zgodnie z raportem Federal Reserve Board.
IMPET DO REGULACJI PAPIERÓW WARTOŚCIOWYCH W STANACH ZJEDNOCZONYCH
Przed 1929 r. istniało niewielkie poparcie dla federalnej regulacji rynków papierów wartościowych w Stanach Zjednoczonych. Optymizm okresu po I wojnie światowej, z obietnicami łatwego kredytu i natychmiastowego bogactwa, nie był czasem ograniczeń narzucanych przez regulacje. Jak zauważyła Komisja Papierów Wartościowych i Giełd (SEC), "W latach dwudziestych XX wieku, około 20 milionów dużych i małych akcjonariuszy skorzystało z powojennej prosperity i postanowiło zarobić na giełdzie. Szacuje się, że z 50 miliardów dolarów nowych ofert papierów wartościowych w tym okresie, połowa stała się bezwartościowa". (SEC, www.sec.gov/) Zaufanie społeczeństwa zmieniło się dramatycznie wraz z krachem giełdowym w 1929 r. Aby gospodarka mogła się odrodzić, należało przywrócić zaufanie społeczeństwa do rynków kapitałowych. Rezultatem było uchwalenie dwóch aktów przez Kongres, Securities Act z 1933 r. i Securities Exchange Act z 1934 r. Prawa te zostały ustanowione w celu zapewnienia struktury w funkcjonowaniu rynków finansowych i zapewnienia nadzoru rządowego.
KOMISJA PAPIERÓW WARTOŚCIOWYCH I GIEŁD
Ustawa o giełdzie papierów wartościowych z 1934 r. obejmowała utworzenie Komisji Papierów Wartościowych i Giełd, której zadaniem było egzekwowanie nowo uchwalonych przepisów dotyczących papierów wartościowych, promowanie stabilności na rynkach i ochrona inwestorów. Komisja Papierów Wartościowych i Giełd działa na podstawie założenia, że wszyscy inwestorzy powinni mieć dostęp do pewnych podstawowych faktów dotyczących inwestycji przed zakupem. Kluczowym sposobem osiągnięcia tego jest wymaganie, aby wszystkie spółki publiczne ujawniały istotne informacje finansowe i inne wszystkim obywatelom. SEC nadzoruje kluczowych uczestników świata finansów, w tym giełdy papierów wartościowych, brokerów-dealerów i doradców inwestycyjnych. Poprzez swoje uprawnienia wykonawcze SEC podejmuje działania cywilne przeciwko osobom i spółkom naruszającym przepisy dotyczące papierów wartościowych. Typowe naruszenia dotyczą handlu informacjami poufnymi, oszustw księgowych i dostarczania fałszywych lub wprowadzających w błąd informacji o papierach wartościowych i spółkach, które je emitują.
ROLA GIEŁD
Giełdy papierów wartościowych odegrały znaczącą rolę w finansowaniu amerykańskich przedsiębiorstw poprzez zapewnienie sposobu kupowania i sprzedawania papierów wartościowych. Pierwsza giełda papierów wartościowych w Stanach Zjednoczonych została założona w 1790 roku w Filadelfii. Dwa lata później, w 1792 roku, powstała New York Stock Exchange, gdy dwudziestu czterech maklerów giełdowych podpisało umowę o handlu pod drzewem guzikowym na zewnątrz obecnej 68 Wall Street. New York Stock Exchange (NYSE) jest największą giełdą papierów wartościowych na świecie. Pierwszym klientem NYSE w 1792 roku był Bank of New York, a jego pierwsze biuro, założone w 1817 roku, było wynajętym pokojem przy 40 Wall Street. Pierwszy dzień z milionem akcji miał miejsce 15 grudnia 1886 roku, a pierwszy dzień z miliardem akcji miał miejsce 28 października 1997 roku. Badanie wszystkich rynków papierów wartościowych przeprowadzone przez SEC w 1961 roku wykazało, że rynek papierów wartościowych pozagiełdowych był rozdrobniony i niejasny, co skłoniło SEC do zaproponowania Krajowemu Stowarzyszeniu Dealerów Papierów Wartościowych opracowania zautomatyzowanego systemu papierów wartościowych pozagiełdowych. Taki system został ukończony i rozpoczął działalność w lutym 1971 r.; jest znany jako system National Association of Securities Dealers Automated Quotation-lub NASDAQ-. Pierwszy na świecie elektroniczny rynek akcji, pod koniec 1999 r. zajmował drugie miejsce, po New York Stock Exchange, wśród światowych rynków papierów wartościowych pod względem wolumenu dolarowego.
KOŃCOWE DEKADY XX WIEKU
Wraz z uchwaleniem nowych praw, sektor finansowy jest restrukturyzowany. Zakres usług świadczonych przez rodzaj instytucji nie jest tak ograniczony, jak miało to miejsce wcześniej. Wpływ technologii. Wraz z nadejściem XXI wieku, sposoby, w jakie akcje były kupowane i sprzedawane, zaczęły wzbudzać intensywną uwagę. Rynki akcji, w tym regionalne w Stanach Zjednoczonych, zaczęły rozważać sposoby, w jakie obecne i powstające technologie wpłyną na ich funkcjonowanie. Rząd federalny również zaangażował się w ocenę skutków handlu elektronicznego w ostatnich latach XX wieku. Przesłuchania odbywały się w komisjach zarówno w Izbie Reprezentantów, jak i w Senacie. Wśród osób wygłaszających prezentacje na przesłuchaniach Komisji Bankowej Senatu byli liderzy banków i giełd. Tradycyjne firmy z tych branż zapewniały członków takich komisji, że mogą sprostać wyzwaniom nowej technologii i nadal być opłacalnymi graczami na rynku finansowym. Jednym z przykładów atrakcyjności handlu elektronicznego w usługach finansowych jest skala takiego handlu w połowie 2000 r. Wydatki online na usługi finansowe, głównie kupno i sprzedaż papierów wartościowych, stanowiły 28,9 procent wszystkich wydatków w tej kategorii. Rok wcześniej skala takich transakcji wynosiła 14,6. (jak podano w The Wall Street Journal, 17 lipca 2000 r. "Clicks and Mortar". William M. Bulkeley, s. R4. Źródło podano jako Boston Consulting Group). Istnieje znaczne zainteresowanie opracowaniem zasad i regulacji w celu zwiększenia skuteczności i wydajności transakcji finansowych przeprowadzanych elektronicznie. W czerwcu 2000 r. Kongres uchwalił ważną nową decyzję dotyczącą handlu elektronicznego, która umożliwi składanie podpisów online i wejdzie w życie 1 października 2000 r. Ciągły rozwój teorii finansów. W ostatniej tercji XX wieku nastąpiły imponujące zmiany w teorii finansów. Chociaż Nagroda Nobla została przyznana po raz pierwszy w 1901 r., kategoria "nauki ekonomiczne" została dodana dopiero w 1969 r. Kilku czołowych teoretyków w dziedzinie finansów znalazło się wśród laureatów Nagrody Nobla w dziedzinie nauk ekonomicznych. Globalizacja działalności finansowej. Transformacja rynków kapitałowych z poziomu krajowego na globalny znacznie wzrosła w ostatniej dekadzie XX wieku, napędzana postępem gospodarczym i wspierana przez szybko rozwijające się możliwości technologiczne. Przywództwo zapewniło stowarzyszenie światowych regulatorów papierów wartościowych, Międzynarodowa Organizacja Komisji Papierów Wartościowych (IOSCO), która została zorganizowana na początku lat 70. W 1993 r. IOSCO opisała podstawowy zestaw standardów, które byłyby potrzebne do zapewnienia kompleksowego zbioru zasad rachunkowości dla firm podejmujących transgraniczne oferty papierów wartościowych. W maju 2000 r. IOSCO zatwierdziła podstawowe standardy opracowane przez Międzynarodowy Komitet Standardów Rachunkowości (IASC). W międzyczasie Międzynarodowy Komitet Standardów Rachunkowości zaprojektował nową strukturę dla międzynarodowego organu ustalającego standardy rachunkowości, która została zaakceptowana przez członków w maju 2000 r., a jej wdrożenie przewidywano na styczeń 2001 r. Te zmiany są obiecujące dla rozwoju funkcjonującego globalnego rynku finansowego.
Ustawa o żywności i lekach z 1906 r., która zabraniała międzystanowego handlu źle oznakowaną lub zanieczyszczoną żywnością, napojami i lekami, została uchwalona przez Kongres tego samego dnia co ustawa o kontroli mięsa. W tym czasie nie istniała Federalna Agencja Leków, istniało natomiast Biuro Chemii. W 1927 r. utworzono odrębną agencję egzekwowania prawa znaną jako Agencja ds. Żywności, Leków i Insektycydów; w 1930 r. przemianowano ją na Agencję ds. Żywności i Leków (FDA). W 1938 r., po pięciu latach walki z Kongresem, uchwalono Federalną Ustawę o Żywności, Lekach i Kosmetykach. Według strony internetowej FDA zawierała ona następujące nowe przepisy: Później jurysdykcja FDA została rozszerzona o kuchenki mikrofalowe i wszelkie produkty konsumenckie emitujące promieniowanie, a także leki weterynaryjne i karmę dla zwierząt. Agencja monitoruje produkcję, transport i sprzedaż żywności i leków. Aby zapewnić swoją wydajność, FDA działa w 157 miastach i zatrudnia około 9000 osób. Wśród jej pracowników są chemicy, mikrobiolodzy i badacze, którzy odwiedzają 15 000 lokalizacji każdego roku. Inspektorzy FDA odwiedzają firmy regulowane przez FDA. Jeśli istnieje problem, FDA pozwala firmie dobrowolnie rozwiązać problem lub wycofać wadliwy produkt. Jeśli firma odmawia współpracy, FDA może zwrócić się do sądu, aby wymusić współpracę. Postępowanie sądowe może obejmować postępowanie karne, jeśli jest to konieczne. W obszarze kontroli leków FDA nie przeprowadza własnych eksperymentów, ale dokładnie bada wyniki badań firmy. Inspektorzy FDA przeprowadzają trzy rodzaje inspekcji: zorientowane na badania, zorientowane na dochodzenia i inspekcje bioekwiwalencji. Inspekcje zorientowane na badania są potrzebne w przypadku wniosków o zatwierdzenie nowego leku lub nowego produktu. Inspekcja zorientowana na badacza może zostać zlecona, jeśli inni badacze badający to samo badanie uważają, że wyniki są niespójne. Jeśli jedno badanie jest jedyną podstawą wniosku marketingowca, przeprowadza się badanie bioekwiwalencji. Po zatwierdzeniu leku lub urządzenia odpowiedzialność agencji się nie kończy. FDA monitoruje wszelkie skargi i sprawdza wszelkie niepożądane reakcje związane z produktem. W rezultacie co roku wycofuje się około 3000 produktów. Oprócz zapewnienia jakości samego produktu, FDA ma duży wpływ na przedsiębiorstwa i sposób pakowania towarów; na przykład leki i produkty niebezpieczne dla dzieci są teraz pakowane w butelki zabezpieczone przed dziećmi, a etykiety na opakowaniach produktów spożywczych muszą zawierać informacje o zawartości składników odżywczych i ich ilości. Każda firma produkująca produkt podlegający jurysdykcji FDA odczuła presję jej przepisów, a skargi na powolność procedur FDA zostały złożone. Jednak obywatele żadnego innego kraju nie cieszą się większą ochroną w zakresie produktów, których używają, niż obywatele USA.
Franchising to umowa, na mocy której dostawca lub franczyzodawca przyznaje dealerowi lub franczyzobiorcy prawo do sprzedaży produktów w zamian za pewien rodzaj wynagrodzenia. Jest to umowa biznesowa obejmująca kontrakt między producentem lub innym dostawcą a dealerem, który określa metody, które mają być stosowane w marketingu towaru lub usługi. Franczyzodawca może otrzymać pewien procent całkowitej sprzedaży w zamian za dostarczenie sprzętu, budynków, know-how w zakresie zarządzania i badania rynku. Franczyzobiorca dostarcza siłę roboczą i kapitał, prowadzi działalność franczyzową i zgadza się przestrzegać postanowień umowy franczyzowej. Historycznie, franczyza była przyznawana przez króla, aby dać obywatelowi wyłączne prawo do sprzedaży produktu lub świadczenia usługi. W zamian za to prawo władca chronił wyłączność, a poddany płacił rządowi odpowiednią daninę w postaci usług, żywności, towarów lub pieniędzy. Franczyza w Stanach Zjednoczonych rozpoczęła się wkrótce po wojnie secesyjnej, kiedy Singer Company zaczęła tworzyć franczyzy maszyn do szycia. Koncepcja ta stała się coraz bardziej popularna po 1900 roku w przemyśle samochodowym. Z tego powodu rozwinęły się inne franczyzy motoryzacyjne dla benzyny, oleju i opon. W latach 50. XX wieku działalność gastronomiczna dokonała dramatycznego wejścia do franczyzy wraz z rozwojem McDonald′s, obecnie jednej z największych organizacji franczyzowych na świecie. W 1999 roku franczyza stanowiła 916 miliardów dolarów rocznej sprzedaży, przy czym 533 placówki zatrudniały ponad 7 milionów osób. Nowa franczyza otwiera się gdzieś w Stanach Zjednoczonych co sześć minut. Franczyza stanowi około 40 procent całej sprzedaży detalicznej w Stanach Zjednoczonych. Ze względu na zmiany na rynku międzynarodowym, zmieniające się opcje zatrudnienia w Stanach Zjednoczonych, rozwijającą się gospodarkę USA i zainteresowanie korporacji większą liczbą działań joint venture, franczyza będzie nadal szybko rosła. Franczyza stanowi najlepszą szansę dla małych przedsiębiorców na konkurowanie z gigantami, które dominują na rynku. Bez franczyzy tysiące przedsiębiorców nigdy nie miałoby okazji posiadać własnych firm. Największy odsetek operacji franczyzowych dotyczy rekreacji, rozrywki i podróży, zaraz za nimi plasują się usługi biznesowe, handel detaliczny artykułami niespożywczymi oraz produkty i usługi motoryzacyjne. W 1999 r. dziesięć najlepszych franczyz w kolejności malejącej to Yogen Fruz Worldwide (pierwsze miejsce), McDonald′s, Subway, Wendy′s International Inc., Jackson Hewitt Tax Service, KFC, Mail Boxes Etc., TCBY Treats, Taco Bell i Jani-King. Umowy franczyzowe detaliczne dzielą się na trzy ogólne kategorie. W jednym typie umowy producent upoważnia szereg sklepów detalicznych do sprzedaży określonego produktu marki. Ta umowa franczyzowa, jedna z najstarszych, jest powszechna w sprzedaży samochodów i ciężarówek, sprzętu rolniczego, obuwia, farb, sprzętu do robót ziemnych i benzyny. Około 90 procent całej benzyny jest sprzedawane za pośrednictwem niezależnych stacji benzynowych objętych franczyzą, a dealerzy objęci franczyzą zajmują się praktycznie całą sprzedażą nowych samochodów i ciężarówek. W drugim typie franczyzy detalicznej producent udziela licencji dystrybutorom na sprzedaż danego produktu detalistom. Ten układ jest powszechny w branży napojów bezalkoholowych. Większość krajowych producentów napojów bezalkoholowych - Coca-Cola, Dr. Pepper, PepsiCo - udziela franczyz rozlewniom, które następnie obsługują sprzedawców detalicznych. W trzecim typie franczyzy detalicznej franczyzodawca dostarcza nazwy marek, techniki lub inne usługi zamiast kompletnych produktów. Franczyzodawca może świadczyć określone usługi produkcyjne i dystrybucyjne, ale jego główną rolą w układzie jest ostrożne opracowywanie i kontrolowanie strategii marketingowych. To podejście do franczyzy, bardzo powszechne obecnie, jest stosowane przez takie organizacje jak Holiday Inn, AAMCO, McDonald′s, Dairy Queen, KFC i H&R Block. Dobry system franczyzowy może zaoferować potencjalnemu franczyzobiorcy zróżnicowany wachlarz wiedzy biznesowej. W większości przypadków franczyzobiorca korzysta z korzyści w postaci ogólnokrajowej rozpoznawalnej nazwy handlowej, krajowego uznania i natychmiastowej zbiorowej dobrej woli franczyzy. Standardowa jakość i jednolitość produktu lub usługi w połączeniu z istniejącym - i skutecznym - systemem marketingu i księgowości to inne korzyści. Ponadto franczyzodawca udziela fachowych porad dotyczących lokalizacji, projektu, kapitalizacji i kwestii operacyjnych. Specjalizacja na poziomie krajowym jest przeprowadzana w celu utrzymania niezbędnych badań i analiz rynkowych, które umożliwią franczyzobiorcy pozostanie konkurencyjnym na ciągle zmieniającym się rynku. Innymi słowy, dostarczana jest struktura biznesowa, która zmniejsza liczbę ryzyk, które mogą pojawić się przy zakładaniu nowego biznesu. Najczęściej ryzyka te są związane z zaangażowaną inwestycją finansową. Jednak umowa franczyzowa często oferuje oszczędności kosztów poprzez dzielenie scentralizowanego systemu zakupów, a w niektórych przypadkach bezpośrednią pomoc finansową.
ZALETY I WADY FRANCZYZY
Franczyza oferuje szereg korzyści zarówno franczyzobiorcy, jak i franczyzodawcy. Umożliwia franczyzobiorcy rozpoczęcie działalności przy ograniczonym kapitale i korzystanie z doświadczenia biznesowego innych. Ponadto franczyzy reklamowane na szczeblu krajowym, takie jak ServiceMaster i Burger King, często mają zapewnioną obecność klientów zaraz po otwarciu. Jeśli pojawią się problemy biznesowe, franczyzobiorca może uzyskać wskazówki i porady od franczyzodawcy za niewielką opłatą lub bezpłatnie. Punkty franczyzowe odnoszą zazwyczaj większe sukcesy niż niezależne przedsiębiorstwa Mniej niż 10 procent franczyzowych przedsiębiorstw detalicznych upada w ciągu pierwszych dwóch lat działalności, podczas gdy około połowa niezależnych przedsiębiorstw detalicznych upada w tym okresie. Franczyzobiorca otrzymuje również materiały do wykorzystania w lokalnej reklamie i może skorzystać z krajowych kampanii promocyjnych sponsorowanych przez franczyzodawcę. Na przełomie XXI wieku franczyzobiorcy Taco Bell skorzystali na krajowej kampanii reklamowej z udziałem chihuahua domagającego się "Yo quiero Taco Bell" ("Chcę trochę Taco Bell"). Reklamy pomogły zwiększyć sprzedaż w tych samych sklepach Taco Bell o 3 procent w branży, która w innym przypadku była stagnacyjna. Mówiący pies był szczególnie popularny wśród nastolatków, którzy wydają ponad 12 miliardów dolarów rocznie w restauracjach typu fast-food. Franczyzobiorca uzyskuje szybką i selektywną dystrybucję produktów poprzez umowy franczyzowe bez ponoszenia wysokich kosztów budowy i prowadzenia własnych punktów sprzedaży, co daje mu więcej kapitału na rozbudowę produkcji i reklamy. Może również zapewnić, poprzez umowę franczyzową, że punkty sprzedaży będą utrzymywane i prowadzone zgodnie z jego własnymi standardami. Franczyzobiorca korzysta z faktu, że franczyzobiorca, będący w większości przypadków jednoosobowym właścicielem firmy, prawdopodobnie będzie bardzo zmotywowany do odniesienia sukcesu. Sukces franczyzy oznacza większą sprzedaż, co przekłada się na wyższy dochód dla franczyzobiorcy. Pomimo tych licznych zalet, umowy franczyzowe mają również wady dla obu stron. Franczyzobiorca może dyktować wiele aspektów działalności: wystrój, projekt mundurów pracowników, rodzaje znaków i wiele innych szczegółów dotyczących działalności biznesowej. Ponadto franczyzobiorcy muszą płacić za korzystanie z nazwy, produktów i pomocy franczyzobiorcy. Zwykle franczyzobiorcy muszą zapłacić jednorazową opłatę franczyzową, a także stałe opłaty licencyjne i opłaty reklamowe, często pobierane jako procent od sprzedaży. Na przykład Subway wymaga od franczyzobiorców wniesienia 40 000 do 80 000 dolarów kosztów początkowych. Franczyzobiorcy często muszą bardzo ciężko pracować, poświęcając dwanaście godzin dziennie, sześć lub siedem dni w tygodniu. W niektórych przypadkach umowy franczyzowe nie są jednolite; jeden franczyzobiorca może zapłacić więcej niż inny za te same usługi. Franczyzodawca oddaje również pewną część kontroli, zawierając umowę franczyzową. W związku z tym poszczególne placówki mogą nie być prowadzone dokładnie tak, jak chciałby franczyzodawca. Zawierając umowę franczyzową, franczyzobiorcy muszą być przygotowani na podjęcie poważnych zobowiązań zarówno pieniężnych, jak i czasowych. Muszą być przygotowani na zainwestowanie znacznej kwoty pieniędzy, zarówno w początkową opłatę franczyzową, jak i w koszty początkowe oraz na utrzymanie funduszy, aby zapewnić przepływ gotówki wystarczający do prowadzenia działalności w początkowych miesiącach lub, jeśli to konieczne, latach. Większość franczyzobiorców osiąga średni zysk netto mniejszy niż 30 000 dolarów rocznie. Drugim zobowiązaniem jest czas; na początku właściciel będzie zobowiązany poświęcić długie godziny na szczegóły działalności biznesowej. Doświadczenie pokazało, że to zobowiązanie jest wspólnym mianownikiem wielu udanych operacji franczyzowych. Franczyzobiorcy muszą w dużym stopniu polegać na własnych predyspozycjach i motywacji, aby nauczyć się biznesu. Muszą również polegać na produktach, usługach i umiejętnościach biznesowych franczyzodawcy. Decydując, czy zawrzeć umowę franczyzową, należy wziąć pod uwagę kilka kluczowych punktów. Pierwszym czynnikiem jest cena i koszty. Jaki jest całkowity koszt? Jakie są początkowe opłaty? Jakie są bieżące koszty? Czy są jakieś ukryte dodatki? Czy masz ograniczone prawo do zakupu innych towarów? Drugim czynnikiem jest lokalizacja. Gdzie będzie znajdować się franczyza? Jakie jest terytorium, które będzie obsługiwać? Jakie są zabezpieczenia i ograniczenia? Kto może z Tobą konkurować? Trzecia kwestia dotyczy kontroli i wsparcia. Jakie kontrole będą obowiązywać? Jakie zasady i przepisy regulują umowę franczyzową? Jakie szkolenia i stałe wsparcie będą dostarczane? Reklama to czwarte zagadnienie. Franczyzobiorca musi ustalić, jaka reklama krajowa i regionalna będzie dostarczana, a także za co płaci franczyzobiorca, a co finansuje franczyzodawca. Ostatni obszar zainteresowania obejmuje zyski i straty, przeniesienie i śmierć oraz czas trwania i rozwiązanie umowy. Potencjalni franczyzobiorcy muszą ustalić nie tylko, jaką ochronę otrzymają za swoje zarobki, jeśli odniosą sukces, ale także za jakie obowiązki będą odpowiedzialni, jeśli franczyza się nie powiedzie. Ponadto muszą dowiedzieć się, czy w przypadku ich śmierci umowa franczyzowa może zostać przeniesiona na ich spadkobierców, czy też automatycznie powróci do franczyzodawcy. Na koniec muszą ustalić, jakie postanowienia, kary i inne obowiązki wiążą się z rozwiązaniem umowy z franczyzodawcą, jeśli nie będą chcieli kontynuować działalności.
SEKTOR FRANCZYZY
Franczyza jest jak każda inna własność biznesowa, ponieważ kupujący jest odpowiedzialny za to, co kupuje. Źle finansowane lub źle zarządzane systemy franczyzowe nie są lepsze od źle finansowanych lub źle zarządzanych firm niefranczyzowych. Ważne jest, aby pamiętać, że istnieją trendy we franczyzach, tak jak w innych typach firm. Obszary wzrostu franczyzy w latach 90. obejmowały świadczenie opieki domowej (znajdowanie niań dla dzieci i pielęgniarek dla pacjentów przywiązanych do domu), obsługę dzieci (prowadzenie ośrodków edukacyjnych i opieki nad dziećmi), dbanie o domy ludzi (usługi sprzątania), serwisowanie samochodów i, jak zawsze, prowadzenie lokali typu fast food. Wzrost branży fast food na zasadzie franczyzy był naprawdę spektakularny. Te operacje franczyzowe ustępują jedynie salonom samochodowym i stacjom benzynowym pod względem wolumenu sprzedaży brutto. Najczęściej zlokalizowane przy kluczowych skrzyżowaniach lub przy ruchliwych autostradach, przedsiębiorstwa typu fast food cieszą się dużą widocznością. W tym segmencie branży franczyzowej większość operatorów franczyzowych posiadała już inne firmy przed wejściem na franczyzę fast-food. Wielu odnoszących sukcesy operatorów to absolwenci szkół wyższych, ale znaczna liczba odnoszących sukcesy franczyzobiorców z wykształceniem jedynie średnim sugeruje, że samo wykształcenie nie jest czynnikiem decydującym. Franczyza fast-food to rodzaj przedsięwzięcia, w którym zarówno mąż, jak i żona mogą przyczynić się do sukcesu firmy. Większość franczyzobiorców fast-food uważa, że lokalizacja geograficzna jest ważnym czynnikiem sukcesu operacji. Podobnie jak franczyzobiorcy w innych branżach, podkreślają znaczenie odpowiedniej kapitalizacji, wydajnego działania systemu franczyzowego, dobrych relacji z klientami, wykwalifikowanych pracowników i wkładu franczyzobiorców, takiego jak ich umiejętności zarządzania, a zwłaszcza ciężka praca. Według Cassano′s Pizza and Subs, franczyzobiorcy z dwunastoma punktami w czterech stanach, odnoszący sukcesy operator franczyzowy musi mieć kilka cech: (1) doskonałe podejście do obsługi klienta i relacji z klientami; (2) przedsiębiorcze zdolności i ducha w połączeniu z dobrymi technikami biznesowymi; (3) chęć praktycznego podejścia do biznesu. Nowi franczyzobiorcy w Cassano′s fast-food muszą mieć wcześniejsze doświadczenie w zarządzaniu sprzedażą detaliczną i wcześniejsze doświadczenie w gastronomii. Wszyscy nowi franczyzobiorcy są szkoleni w biurze głównym w Dayton w stanie Ohio przez jeden miesiąc. Następnie franczyza zapewnia ciągłe szkolenia i pomoc kierowniczą.
GLOBALNA FRANCZYZA
Franczyza rozwija się szybko za granicą, a ponad 370 firm franczyzowych działa w około 40 000 placówek za granicą. Kanada jest największym z tych rynków, a następnie Japonia, Europa, Australia i Wielka Brytania. W 1995 roku Subway podpisał umowę z japońskimi finansistami na otwarcie 1000 placówek franczyzowych w Japonii. Subway dostosował swoje produkty do lokalnych gustów - na przykład oferując na rynku japońskim kanapki ze smażoną wieprzowiną. Franczyza może być praktycznym sposobem dla małych firm na wejście na rynki zagraniczne, zwłaszcza na rynkach, na których jest niewielu konkurentów. Na przykład Automation Paper Company, mały dostawca zaawansowanych technologicznie produktów papierniczych z siedzibą w New Jersey, wykorzystał franczyzę, aby uzyskać wyłączną reprezentację na rynkach docelowych. Franczyzobiorcy otrzymują prawa do znaku towarowego firmy, a także szkolenia dla lokalnych pracowników i korzyści z doświadczenia firmy, linii kredytowych i budżetu reklamowego. Problemy, z jakimi borykają się firmy franczyzowe w transakcjach międzynarodowych, są stosunkowo mniej poważne niż te, z którymi borykają się inne sektory usług. Franczyzodawcy muszą przestrzegać tych samych lokalnych wymogów, co inne firmy, a umowy franczyzowe muszą być zgodne z lokalnym prawem umów, prawem antymonopolowym oraz prawem znaków towarowych i licencyjnym. Oprócz różnic językowych i kulturowych, wiele problemów związanych z prowadzeniem działalności gospodarczej w krajach zagranicznych jest takich samych, jak w Stanach Zjednoczonych. Sukces lub porażka zagranicznej franczyzy będzie w dużej mierze zależeć od solidności pozycji rynkowej franczyzodawcy na rynku krajowym i od jego zdolności do zapewnienia niezbędnej wiedzy specjalistycznej innym w innej części świata. Niektóre popularne w Stanach Zjednoczonych franczyzy faktycznie rozpoczęły się w innym kraju. Na przykład Molly Maid rozpoczęła działalność w Kanadzie w 1980 roku i przybyła do Stanów Zjednoczonych cztery lata później. Wszystkie trendy wskazują, że franczyza będzie nadal się rozwijać zarówno w kraju, jak i za granicą, tworząc wspaniałe możliwości dla istniejących i nowych firm; rozwijając nowych przedsiębiorców, nowe miejsca pracy, nowe produkty, nowe usługi; i zapewniając możliwości eksportowe. Rosnące dochody osobiste, stabilne ceny, wysoki poziom optymizmu konsumentów i zwiększona konkurencja o udział w rynku sprawiają, że wiele firm, zarówno małych, jak i dużych, skłania się ku franczyzie. Edukacja będzie odgrywać ważną rolę w przyszłości franczyzy, ponieważ zarówno szkoły średnie, jak i wyższe zwiększają liczbę kursów z zakresu marketingu, zarządzania biznesem i przedsiębiorczości. Ponadto zmieniające się wzorce demograficzne w Ameryce, w połączeniu ze zwiększoną liczbą kobiet w sile roboczej, wpływają na liczbę nowych franczyz każdego roku. W 1998 r. około 14 procent punktów franczyzowych było prowadzonych przez kobiety, podczas gdy 21 procent było prowadzonych przez partnerów kobieta-mężczyzna. Ponadto zmieniające się wzorce demograficzne i wykorzystanie nowych technologii nasiliły konkurencję między firmami franczyzowymi. Czynniki te zwiększyły liczbę fuzji i przejęć w systemie franczyzowym i oczekuje się, że ten trend fuzji/przejęć utrzyma się przez kilka lat. Kreatywność i wyobraźnia w traktowaniu towarów i usług stanowią obecnie główny cel większości przedsięwzięć biznesowych. Edukacja, komputery i umiejętność pracy z ludźmi i zarządzania nimi będą z zyskiem wykorzystywane przez nowe, powstające przedsiębiorstwa. Wszystkie te wydarzenia wskazują, że franczyza będzie jedną z wiodących metod prowadzenia działalności gospodarczej w pierwszej dekadzie XXI wieku, nawet w obliczu mieszanych sygnałów w gospodarce.
Fundusze inwestycyjne należą do grupy pośredników finansowych, znanych jako firmy inwestycyjne, których działalność polega na gromadzeniu środków od inwestorów i łączeniu ich w celu budowania portfela papierów wartościowych zgodnie z określonymi celami. Są one również znane jako otwarte firmy inwestycyjne. Innymi członkami grupy są zamknięte firmy inwestycyjne (znane również jako fundusze zamknięte) oraz fundusze powiernicze. W Stanach Zjednoczonych firmy inwestycyjne podlegają regulacjom Komisji Papierów Wartościowych i Giełd (SEC) na mocy Ustawy o spółkach inwestycyjnych z 1940 r. (Investment Company Act of 1940). Fundusze inwestycyjne są zazwyczaj zorganizowane jako korporacje lub fundusze powiernicze i jako takie posiadają radę dyrektorów lub powierników wybieranych przez akcjonariuszy. Prawie wszystkie aspekty ich działalności są zarządzane zewnętrznie. Zatrudniają firmę zarządzającą do zarządzania inwestycją za opłatą, zazwyczaj opartą na procencie średnich aktywów netto funduszu w ciągu roku. Firma zarządzająca może być organizacją stowarzyszoną lub niezależnym wykonawcą. Sprzedają swoje udziały inwestorom bezpośrednio lub za pośrednictwem innych firm, takich jak brokerzy-dealerzy, doradcy finansowi, pracownicy firm ubezpieczeniowych i banków. Nawet codzienne zarządzanie funduszem jest wykonywane przez podmiot zewnętrzny, którym może być spółka zarządzająca lub niezależna strona trzecia. Spółka zarządzająca jest odpowiedzialna za wybór portfela inwestycyjnego zgodnego z celami funduszu określonymi w prospekcie emisyjnym oraz zarządzanie nim w najlepszym interesie akcjonariuszy. Zarząd funduszu odpowiada za ogólne zarządzanie funduszem; oczekuje się od nich ustanowienia procedur i przeglądu wyników spółki zarządzającej oraz innych osób świadczących usługi na rzecz funduszu. Fundusze inwestycyjne są znane jako otwarte towarzystwa inwestycyjne, ponieważ są zobowiązane do emisji akcji i wykupu (odkupu) wyemitowanych akcji na żądanie. Fundusze zamknięte natomiast emitują określoną liczbę akcji, ale nie są gotowe do wykupu własnych akcji od inwestorów. Ich akcje są przedmiotem obrotu giełdowego lub pozagiełdowego. Nie mogą one łatwo zwiększać ani zmniejszać liczby wyemitowanych akcji. Cechą wspólną funduszy inwestycyjnych i funduszy zamkniętych jest to, że są one zarządzanymi spółkami inwestycyjnymi, ponieważ mogą zmieniać skład swoich portfeli poprzez dodawanie i usuwanie papierów wartościowych oraz modyfikowanie kwoty zainwestowanej w każdy z nich. Fundusze inwestycyjne nie są zarządzanymi spółkami inwestycyjnymi, tak jak fundusze inwestycyjne, ponieważ ich portfel składa się z ustalonego zestawu papierów wartościowych na całe życie. Są jednak gotowe do wykupu swoich udziałów.
RODZAJE FUNDUSZY INWESTYCYJNYCH
Istnieją cztery podstawowe rodzaje funduszy inwestycyjnych: rynku pieniężnego, akcji (zwanych również akcjami), obligacji i hybrydowe. Klasyfikacja ta opiera się na rodzaju i terminie zapadalności papierów wartościowych wybranych do inwestycji. Fundusze rynku pieniężnego inwestują w papiery wartościowe o terminie zapadalności do jednego roku, takie jak bony skarbowe, papiery komercyjne i certyfikaty depozytowe. Często określa się je jako fundusze krótkoterminowe. Fundusze akcyjne, obligacyjne i hybrydowe inwestują w papiery wartościowe długoterminowe; w związku z tym nazywa się je funduszami długoterminowymi. Fundusze hybrydowe inwestują w kombinację akcji, obligacji i innych papierów wartościowych. Według Investment Company Institute (ICI), krajowego stowarzyszenia amerykańskiego sektora firm inwestycyjnych, na koniec 1999 r. w Stanach Zjednoczonych działało 7791 (6746 długoterminowych i 1045 krótkoterminowych) funduszy inwestycyjnych, a poza granicami kraju - 35 979. Łączna wartość inwestycji amerykańskich funduszy inwestycyjnych wyniosła 6,8 bln USD (akcje = 4,04 bln USD, obligacje = 808 mld USD, hybrydy = 383 mld USD, rynek pieniężny = 1,61 bln USD), a funduszy spoza USA - 3,5 bln USD na koniec 1999 r. Łączna wartość aktywów amerykańskich funduszy inwestycyjnych jest niższa niż wartość aktywów amerykańskich instytucji depozytowych, która na koniec 1999 r. wynosiła 7,5 bln USD. Fundusze inwestycyjne różnią się również pod względem celów inwestycyjnych, określonych w ich prospektach emisyjnych. ICI klasyfikuje fundusze inwestycyjne do trzydziestu trzech kategorii celów inwestycyjnych. Główne cele inwestycyjne w funduszach akcyjnych obejmują wzrost kapitału, całkowity zwrot i akcje globalne. W ramach każdego z tych celów istnieją podkategorie. Istnieją dwie grupy funduszy obligacji: fundusze obligacji opodatkowanych i fundusze obligacji nieopodatkowanych. Główne kategorie funduszy obligacji opodatkowanych to fundusze obligacji korporacyjnych, fundusze wysokodochodowe, fundusze obligacji globalnych, fundusze obligacji rządowych i fundusze strategicznych dochodów. Główne kategorie funduszy obligacji nieopodatkowanych to państwowe fundusze obligacji komunalnych i krajowe fundusze obligacji komunalnych. Wśród funduszy rynku pieniężnego istnieją również opodatkowane fundusze rynku pieniężnego i zwolnione z podatku fundusze rynku pieniężnego. Podobnie jak w przypadku funduszy akcyjnych, w każdej głównej kategorii funduszy obligacji i rynku pieniężnego istnieje wiele podkategorii. Oprócz nich istnieją fundusze specjalistyczne lub sektorowe, które inwestują w określony segment rynku papierów wartościowych. Przykładami są fundusze biotechnologiczne, fundusze rozwoju małych firm, fundusze technologiczne, fundusze indeksowe i fundusze kryteriów społecznych.
CENA JEDNOSTEK FUNDUSZY INWESTYCYJNYCH
Zgodnie z prawem fundusze inwestycyjne są zobowiązane do ustalania ceny swoich jednostek uczestnictwa każdego dnia roboczego. Publikują swoje ceny tego samego dnia w gazetach następnego dnia. Codzienne ceny jednostek uczestnictwa funduszy inwestycyjnych można również uzyskać bezpośrednio w biurach funduszy lub na stronach internetowych komercyjnych dostawców informacji finansowych. Cena jednostki uczestnictwa reprezentuje wartość aktywów netto (NAV) na jednostkę, czyli aktualną wartość rynkową aktywów funduszu po odliczeniu jego zobowiązań. Zobowiązania obejmują nabyte, ale jeszcze nieopłacone papiery wartościowe, naliczone opłaty, należne dywidendy i inne naliczone koszty. Wartość NAV na jednostkę uczestnictwa oblicza się, dzieląc wartość NAV przez liczbę jednostek uczestnictwa funduszu pozostających w obrocie na koniec dnia. Nabywca jednostek uczestnictwa funduszu inwestycyjnego płaci wartość NAV na jednostkę powiększoną o wszelkie należne opłaty od sprzedaży (znane również jako opłata wstępna). Czasami opłata od sprzedaży jest pobierana przy odkupywaniu jednostek uczestnictwa; taka opłata od sprzedaży nazywana jest opłatą końcową. Fundusze z opłatą od sprzedaży nazywane są funduszami opłatami; Korzystają z organizacji sprzedaży, aby sprzedawać swoje akcje za opłatą. Fundusze, które sprzedają akcje bezpośrednio i nie pobierają opłaty manipulacyjnej, nazywane są funduszami bez opłaty manipulacyjnej. Opłata manipulacyjna często różni się w zależności od funduszu i podlega regulacjom National Association of Paper Dealers (NASD). Kiedy inwestor sprzedaje akcję, to sprzedający zazwyczaj otrzymuje wartość aktywów netto (NAV). Niektóre fundusze inwestycyjne mogą pobierać opłatę za wykup, jeśli akcje są utrzymywane krócej niż określony okres.
KORZYŚCI I KOSZTY INWESTOWANIA W FUNDUSZE INWESTYCYJNE
Fundusze inwestycyjne oferują inwestorom możliwość dywersyfikacji inwestycji pod profesjonalnym zarządzaniem, czego większość inwestorów może nie być w stanie osiągnąć samodzielnie. Ponieważ fundusze operują dużą pulą środków pieniężnych, inwestorzy korzystają z korzyści skali, takich jak niższe koszty transakcyjne i wyższa stopa zwrotu. Oprócz atrakcyjnych stóp zwrotu, wiele funduszy oferuje swoim inwestorom takie usługi, jak uprawnienia do wystawiania czeków, powiernictwo (jako usługa) i księgowość. Inwestorzy korzystają również z możliwości świadomego wyboru papierów wartościowych i celów inwestycyjnych, jakie oferują fundusze. Koszty dla akcjonariusza związane z inwestowaniem w fundusze inwestycyjne przybierają różne formy: opłaty wstępne, opłaty za zarządzanie, koszty utrzymania i obsługi kont akcjonariuszy (koszty administracyjne), opłaty za umorzenie oraz opłaty dystrybucyjne (znane również jako opłaty 12b-1). Jak wspomniano wcześniej, opłata za umorzenie jest zazwyczaj pobierana od akcji utrzymywanych krócej niż określony okres. Opłata dystrybucyjna to opłata pobierana od obecnych akcjonariuszy w celu pokrycia kosztów reklamy, promocji, sprzedaży i innych działań. Czasami jest łączona z opłatami manipulacyjnymi. Wszystkie te wydatki są sumowane w celu uzyskania jednego wskaźnika kosztów dla akcjonariusza. Zagregowanym wskaźnikiem powszechnie spotykanym w publikowanych danych jest wskaźnik kosztów (koszty jako procent aktywów). Wskaźnik ten nie uwzględnia opłat manipulacyjnych, jeśli takie występują. Rea i Reid (1998) omawiają obliczenie alternatywnego wskaźnika całkowitego kosztu posiadania, który uwzględnia opłaty manipulacyjne.
REGULACJE I OPODATKOWANIE
Wszystkie amerykańskie fundusze inwestycyjne podlegają ścisłym regulacjom Komisji Papierów Wartościowych i Giełd (SEC). Podlegają one również stanowym wymogom dotyczącym składania zawiadomień oraz przepisom antyfraudowym. Są zobowiązane do przekazywania inwestorom pełnego ujawnienia informacji o swojej działalności w prospekcie emisyjnym. Dostarczają również inwestorom roczne zestawienie dystrybucji wraz ze szczegółowymi informacjami na temat federalnego statusu podatkowego ich dystrybucji. Fundusze inwestycyjne w Stanach Zjednoczonych nie podlegają podatkowi dochodowemu od osób prawnych, jeśli spełniają określone wymogi Kodeksu Podatkowego Stanów Zjednoczonych (IRC). Zamiast tego, udziałowcy funduszy inwestycyjnych płacą podatek od dystrybucji dochodu funduszu. Dla celów podatkowych fundusze inwestycyjne dystrybuują swój dochód netto udziałowcom na dwa sposoby: (1) poprzez wypłaty dywidend i odsetek oraz (2) poprzez zrealizowane zyski kapitałowe.
WYNIKI I PORÓWNANIE
Stopa zwrotu jest powszechnie stosowana do porównywania wyników funduszy inwestycyjnych. Na przykład, stopa zwrotu z inwestycji w fundusz inwestycyjny w okresie jednego roku jest obliczana poprzez dodanie zmiany wartości aktywów netto (NAVt - NAVt-1) do dochodu i zysków kapitałowych rozliczonych w ciągu roku i podzielenie tej sumy przez wartość aktywów netto na początku roku. Poniżej opisano sposób obliczania zwrotu dla funduszy bez opłat manipulacyjnych:
Rt = [(NAVt-NAVt-1) + i + c / NAVt-1
gdzie Rt, i i c oznaczają odpowiednio stopę zwrotu, dochód i zysk kapitałowy. W przypadku funduszy z opłatą manipulacyjną, obliczenie zwrotu musi uwzględniać opłaty manipulacyjne poprzez dodanie ich do wskaźnika NAVt-1. Wyniki funduszu inwestycyjnego często porównuje się z wynikami portfela referencyjnego, który jest wybierany w celu odzwierciedlenia poziomu ryzyka inwestycyjnego portfela funduszu, aby sprawdzić, czy fundusz inwestycyjny osiągnął lepsze wyniki. Stopa zwrotu funduszu inwestycyjnego z wartością aktywów netto (NAV) wynoszącą 15,00 USD na początku roku i 15,50 USD na koniec tego roku, z wypłatą odpowiednio 0,75 USD i 0,50 USD na akcję w formie dochodu i zysku kapitałowego w ciągu roku wyniosłaby:
[($15.50 = $15.00) + $0.75 + $0,50]/$15.00 = 11.67%
ANALIZA I RAPORTOWANIE
Kluczowe statystyki dotyczące funduszu - takie jak wartość aktywów netto (NAV), cena ofertowa, prowizje od sprzedaży, wskaźnik kosztów i miara wyników dla różnych kategorii funduszy - są regularnie obliczane, analizowane i publikowane. Dwie firmy znane ze swoich usług analitycznych to Lipper Analytical Services (Lipperweb.com) i Morning Star Inc. (Morningstar.com). "Wall Street Journal" i "Barron′s" regularnie publikują informacje dostarczane przez Lipper Analytical Services. Investment Company Institute (www.ici.org) również udostępnia bogactwo informacji na temat funduszy inwestycyjnych, w tym dane historyczne i adresy stron internetowych swoich funduszy członkowskich.
Podstawowym elementem obrazów na ekranie komputera jest kropka światła zwana pikselem - słowo utworzone przez połączenie słów "obraz" i "element". Komputer, ponieważ może przedstawić tysiące pikseli na ekranie komputera w milionach różnych kolorów, może tworzyć kształty, które ludzkie oko rozpoznaje jako obraz - grafikę komputerową. Trudno sobie wyobrazić świat bez grafiki komputerowej. Dzisiejsze dzieci dorastały z grami wideo, a projektanci graficzni pracują niemal wyłącznie z programami komputerowymi, aby tworzyć obrazy, które kiedyś pracowicie rysowano długopisem, cyrklem, linijką i ekierką na papierze. Piloci uczą się najnowszych technik latania w symulatorach lotu; inżynierowie i architekci projektują wszystko, od samolotów po wieżowce, tworząc trójwymiarowe modele za pomocą swoich komputerów; mapy pogody w telewizji wyświetlają opady w miarę ich występowania; a lekarze mogą zajrzeć do wnętrza ciała pacjenta bez naruszania skóry. Na początku lat 60. XX wieku pionierzy komputerów na wiodących uniwersytetach zaczęli rozwijać komputery i programy graficzne, które zrewolucjonizowały sposób tworzenia obrazów wizualnych. Wynalezienie terminala wideo, monitora lub ekranu komputera, oraz jego powszechne zastosowanie począwszy od lat 70. XX wieku, doprowadziło do rewolucji w sposobie korzystania z komputerów. Rewolucja ta została przyspieszona przez wprowadzenie kserokopiarki i elektronicznego arkusza kalkulacyjnego do dziedziny komputerowej. Kserokopiarka została wynaleziona przez Chestera Carlsona w 1940 roku, a po raz pierwszy wyprodukowana komercyjnie przez Xerox Corporation w 1959 roku. Kuzyn kserokopiarki, biurkowa drukarka laserowa, wraz z oprogramowaniem do publikacji na komputerze (termin ukuty na początku lat 80. XX wieku), umożliwił amatorom tworzenie dopracowanych biuletynów, ulotek, zaproszeń na imprezy i innych dokumentów dla odbiorców o skromnej wielkości. Teraz, dzięki zastosowaniu skanerów, osoby prywatne mogą tworzyć dokumenty zawierające kolorowe zdjęcia, oryginalne rysunki lub dowolny obraz graficzny z publikacji lub Internetu, za zgodą właścicieli tych obrazów. Elektroniczne arkusze kalkulacyjne, które pojawiły się w 1978 roku, zawierały wzory matematyczne za każdym elementem tabeli danych. Te formuły mogą odnosić się do innych elementów tabeli. Każda zmiana jednej wartości natychmiast wpływałaby na inne komórki, więc prognozy biznesowe, takie jak sprzedaż, wzrost lub zmiany stóp procentowych, można by manipulować, aby zbadać scenariusze "co by było, gdyby"; wpływ każdej zmiany byłby natychmiast widoczny. Takie tabele można następnie zaimportować za pomocą komputerów do dokumentu tekstowego, aby wyjaśnić i udoskonalić informacje w dokumencie. Pamięć i prędkość komputerów wydają się rozszerzać z dnia na dzień, wraz z wyrafinowaniem programów graficznych, umożliwiając osobom w ich własnych domach i biurach tworzenie materiałów graficznych, które dorównują lub przewyższają możliwości nawet najbardziej zaawansowanych firm drukarskich zaledwie kilka lat temu. Aby utworzyć obraz graficzny, program komputerowy dostarczy szereg instrukcji. Instrukcje te powiedzą komputerowi, jak połączyć dwa punkty, aby utworzyć linię prostą, narysować okrąg lub utworzyć literę w tekście drukowanym. Aby to osiągnąć, informatycy opracowali metody rozbijania złożonych zadań rysunkowych na proste komponenty. Następnie program komputerowy powtarza te zadania rysunkowe w kółko, aby utworzyć kompletny obraz. Na przykład, narysowanie obrazu ściany z cegieł ręcznie wymagałoby od artysty lub kreślarza narysowania setek lub tysięcy prostokątów pojedynczo. Komputer z kolei narysowałby jedną cegłę, a następnie używając tego samego wzoru matematycznego, którego użył do stworzenia pierwszej cegły, powieliłby ją tysiące razy niemal natychmiast. Komputery są doskonałymi matematykami. Tysiące obliczeń - nawet prostych obliczeń dodawania lub odejmowania - potrzebnych do stworzenia obrazu komputerowego byłoby niezwykle czasochłonnym procesem bez komputerów. Jednak dzięki tym obliczeniom zapisanym w programie graficznym komputer szybko i precyzyjnie rozświetli piksele potrzebne do stworzenia pożądanego obrazu graficznego na monitorze wideo. Piksele są ułożone w rzędach i kolumnach na ekranie. Liczba pikseli w rzędach pomnożona przez liczbę pikseli w kolumnach określa ich gęstość, czyli rozdzielczość. Rozdzielczość jest jednym ze składników zdolności komputera do tworzenia rozróżnialnego obrazu. Typowy ekran komputera zawiera 640 pikseli w linii i 480 pikseli w pionie. Pomnożona liczba pikseli na typowym ekranie wynosi 307 200. Aby narysować najprostszą grafikę - czarno-białą - program komputerowy przypisze liczbę 1 tym pikselom, które mają być oświetlone, a 0 tym, które pozostaną nieoświetlone. Kontrast utworzony między oświetlonymi i nieoświetlonymi kropkami tworzy obraz graficzny. Liczby wpisane do programów komputerowych również określają kolor każdego piksela w systemie kolorów. Chociaż zdolność sprzętu i oprogramowania komputerowego do tworzenia gęstego lub wysokiej rozdzielczości obrazu jest ważna dla tworzenia obrazu wysokiej jakości, ich zdolność do powielania kolorów jest jeszcze ważniejsza. Podstawowe kolory - czerwienie, zielenie i błękity - można łączyć, aby uzyskać pełne lub prawdziwe kolory. Ich jasność lub ciemność - lub wartości - a także ich kolor tworzą kształty, tak jak w obrazie lub rysunku. Liczba informacji (bitów) odłożonych dla każdego piksela w obszarze pamięci komputera znanym jako bufor wideo określa, ile kolorów ekran może wyświetlić jednocześnie. Prawdziwy system kolorów jest w stanie wyświetlić ponad 16,7 miliona kolorów. Jednak ze względu na ograniczenia pamięci komputera, zwykłe komputery wykorzystują system 256 kolorów. Program nakaże użycie jednego z 256 kolorów z palety kolorów, która z kolei przeniesie ten kolor do piksela. Określenie liczb w celu uzyskania pożądanego koloru i wartości jest sednem nauki grafiki komputerowej. Ograniczając możliwe kolory do 256, każdy piksel nie może być oświetlony idealnym kolorem. Jednak komputer, poprzez proces zwany ditheringiem, może oszukać oko, mieszając kolory między sąsiadującymi pikselami. Jeśli konkretny kolor czerwony nie jest dostępny w palecie kolorów, komputer rozłoży dostępne wartości czerwieni wokół sąsiednich pikseli - dając niektórym więcej wartości czerwieni i mniej wartości zieleni i błękitu, a innym mniej wartości czerwieni i więcej wartości zieleni i błękitu, aby uzyskać pożądany ogólny kolor. Proces ditheringu zaczyna się w lewym górnym rogu obrazu. Następnie komputer będzie ditherował wartości koloru czerwonego, niebieskiego i zielonego każdego piksela, aby obraz wydawał się oku dokładny pod względem koloru, kończąc w prawym dolnym rogu obrazu. Oprócz ditheringu komputer może odtworzyć obraz w prawdziwych kolorach, taki jak fotografia zawierająca tysiące kolorów, z dokładnością poprzez optymalizację wykorzystania 256 kolorów dostępnych w palecie komputera. Jedna z takich technik polega na zliczaniu kolorów w obrazie i nadaniu priorytetu tym, które są najczęściej używane. Jednak powoduje to, że niektóre kolory pozostają nieprzedstawione i są niedostępne tam, gdzie są potrzebne. Aby rozwiązać ten problem, program komputerowy podzieli obraz zawierający kilka tysięcy kolorów na 256 równych "bloków" pogrupowanych według intensywności koloru. Odrzuci bloki bez kropek lub z niewielką ich liczbą. Pozostałe piksele zostaną następnie podzielone na 256 bloków z równą liczbą pikseli. Przy tak podzielonej przestrzeni kolorów średnia wszystkich wartości pikseli w każdym bloku stanowi optymalny wybór dla koloru palety. Kiedy program graficzny komputera rysuje linię lub okrąg, wybiera, który z pikseli oświetlić na linii od punktu A do punktu B, na przykład za pomocą prostej metody dodawania i odejmowania. Najpierw komputer oświetla piksel w punkcie A. Następnie komputer przesuwa się w kierunku B o jeden piksel bliżej. Czy powinien oświetlić piksel w tym samym rzędzie, czy też piksel w rzędzie powyżej lub poniżej? Proste obliczenie pokazuje komputerowi, który z dwóch pikseli leży bliżej idealnej linii i oświetla ten piksel. W milisekundach program kontynuuje poruszanie się wzdłuż linii, obliczając, który piksel oświetlić, aż dotrze do punktu B, tworząc linię, która nie jest ściśle prosta, ale wystarczająco prosta, aby wydawać się taka dla oka. Podobnie jak w przypadku linii, program utworzy dowolny kształt - trójkąt, kwadrat lub wielokąt - używając wzoru matematycznego odnoszącego się do tego kształtu. Okręgi są tworzone w bardzo podobny sposób. Program wybierze, który piksel oświetlić, mierząc jego odległość od środka okręgu i obliczając, czy piksel w tym punkcie na obwodzie pomoże stworzyć idealny kształt okręgu. Ponownie, okrąg nie jest idealnie okrągły, ale oko jest nieco oszukane, ponieważ każdy oświetlony piksel różni się tylko nieznacznie od sąsiadującego. Ponieważ obrazy grafiki komputerowej mogą wymagać dużych ilości pamięci komputerowej, aby były odtwarzalne, opracowano techniki mające na celu zmniejszenie lub skompresowanie liczby bitów pamięci potrzebnych do przechowywania obrazu. Jedną z takich technik kompresji obrazu nazywa się run-lengthe ncoding (RLE). Wykorzystuje ona znaczniki, które oznaczają serie powtarzających się liczb w pliku graficznym, redukując je do dwóch - jeden określający liczbę, a drugi liczbę tej liczby w serii - w pliku. Na przykład plik zawierający 50 identycznie pokolorowanych czerwonych pikseli o wartości 200 można zastąpić liczbami 50 i 200. Dzięki temu procesowi komputer wie, że obraz wymaga 50 znaków o wartości 200 czerwonych, ale przechowuje tylko te dwa polecenia, co stanowi redukcję o jedną dwudziestą piątą. Inna metoda kompresji, JPEG, bierze swoją nazwę od Joint Photographic Experts Group, organizacji, która ją wynalazła. Wykorzystuje ona wzory matematyczne do segregowania informacji o obrazie według ich ważności, a następnie odrzuca mniej ważne informacje. Obraz powstały po takiej kompresji nie będzie dokładnie odpowiadał oryginałowi, ponieważ w procesie utracono pewne informacje. Innym ważnym formatem pliku jest Tagged-Image File Format (TIFF), który można odczytać zarówno na komputerach zgodnych z IBM-PC, jak i Macintosh. Aby utworzyć trójwymiarowe obrazy, komputer używa matematycznej transformacji zwanej projekcją. Chociaż obrazy są prezentowane na dwuwymiarowym ekranie, komputer, wykorzystując zasadę perspektywy - skracanie, cieniowanie i usuwanie ukrytych powierzchni - oraz dzięki swojej zdolności do wykonywania szybkich obliczeń, może przedstawić obiekt tak, aby dla ludzkiego oka wydawał się obiektem trójwymiarowym. Techniki te stanowią podstawę wspomaganego komputerowo kreślenia i animacji komputerowej. Szybko zmieniające się obrazy 3-D na ekranie komputera tworzą iluzję ruchu lub animację. Film animowany będzie używał nieznacznie różniących się obrazów na taśmie filmowej, aby stworzyć iluzję ruchu. Komputer działa w podobny sposób, chociaż nie może wytworzyć dwudziestu czterech pełnoekranowych obrazów na sekundę, typowych dla filmu animowanego. Komputer jednak osiągnie ten sam efekt, wyświetlając jeden obraz na ekranie, podczas gdy w tle pojawi się nowy obraz i zamieni ekran. Eliminuje to czas między wyświetlaniem obrazów, tworząc iluzję ruchu.
Gospodarka globalna odnosi się do rosnącej integracji rozdrobnionych rynków krajowych towarów i usług w jeden rynek globalny. Na takim rynku firmy mogą pozyskiwać towary z jednego kraju, prowadzić badania i rozwój (B+R) w innym kraju, przyjmować zamówienia w kraju trzecim i sprzedawać wszędzie tam, gdzie istnieje popyt, niezależnie od narodowości klienta. Kenichi Ohmae (1989), japoński konsultant, nazywa to światem bez granic. Chociaż nikt nie twierdziłby, że granice narodowe są całkowicie nieistotne, pewne wpływy spowodowały, że glob staje się coraz mniejszy. Należą do nich postęp technologiczny w globalnej komunikacji i transporcie, rozrzedzenie kultury, spadek barier taryfowych i pozataryfowych oraz samonapędzająca się zmiana stopnia globalnej konkurencji.
HANDEL MIĘDZYNARODOWY
Aby zrozumieć ostatni wzrost rynków globalnych, ważne jest, aby mieć pewną wiedzę na temat historycznego rozwoju handlu międzynarodowego. Podczas gdy jakaś forma handlu międzynarodowego istniała przed ekspansją kolonialną Europy w XV i XVI wieku, merkantylizm, czyli handel złotem i srebrem za towary, był prekursorem dużych przepływów towarów, usług i informacji, które istnieją obecnie. Ta filozofia potęgi narodowej zakładała, że kraje z dużą ilością kruszcu mogły utrzymać typy armii niezbędne do podboju innych narodów. Podbite narody zapewniały następnie dodatkowe źródła dochodów, czy to poprzez towary, niewolniczą pracę, czy złoto i srebro, które można było wykorzystać do wsparcia dodatkowych armii, tworząc w ten sposób "cnotliwy" cykl. Od wymagań wojny teoria handlu przeszła przez szereg etapów. Adam Smith, szkocki ekonomista i filozof, stwierdził, że kraje handlowały, ponieważ miały absolutną przewagę. Pracownicy jednego narodu mogli produkować dany produkt wydajniej niż pracownicy w innych krajach. Zamiast produkować produkty, które mógłby produkować, ale słabo, kraj mógłby się specjalizować i wymieniać produkty, które wytworzył wydajnie, na produkty wytworzone wydajnie przez inny kraj, a tym samym zwiększać swoje ogólne bogactwo. David Ricardo zmienił tę teorię, sugerując, że kraj musi mieć jedynie przewagę komparatywną, aby specjalizować się i handlować w celu zwiększenia bogactwa. Kraj mający przewagę absolutną w dwóch dobrach może stwierdzić, że nadal będzie wolał specjalizować się w tym dobru, w przypadku którego ma relatywnie większe doświadczenie w produkcji. Może wówczas wymienić swój nadmiar na większą ilość drugiego dobra, niż mógłby uzyskać, gdyby podzielił swoją produkcję między te dwa dobra. Te teorie handlu zostały zastąpione przez teorię proporcji czynników Heckshera i Ohlina (1933), która sugerowała, że kraje będą się specjalizować w produkcji i handlu produktami kapitałochłonnymi lub produktami pracochłonnymi, w zależności od tego, czy ich przewaga komparatywna leży w kapitale czy w pracy. Inne teorie handlu obejmują teorię cyklu produktu Vernona, która sugeruje, że przewaga komparatywna kraju w zakresie produktów zmienia się w czasie, gdy zmienia się technologia produkcji danego produktu, oraz prace Portera na temat przewagi konkurencyjnej narodów, zgodnie z którymi konkurencyjne gałęzie przemysłu danego kraju zależą od rywalizacji krajowej, warunków popytu, warunków czynników produkcji oraz siły powiązanych i wspierających gałęzi przemysłu.
PRZYCZYNY WZRASTAJĄCEJ GLOBALIZACJI
W czasie, gdy różne teorie handlowe rosły i upadały, świat stał się mniejszy. Jednym z głównych czynników ułatwiających globalny rynek jest postęp technologiczny branży telekomunikacyjnej. W czasach Adama Smitha, jeśli kupiec chciał wymienić dużo wełny na skrzynkę wina porto, przekazanie tej informacji zajmowało tygodnie. Wysłanie wiadomości do podwładnego w Indiach zajmowało miesiące. Takie okoliczności sprzyjały rozdrobnionym, zindywidualizowanym rynkom z filiami zarządzanymi przez członków rodziny lub bliskich przyjaciół. Tym krajowym menedżerom powierzano podejmowanie decyzji w najlepszym interesie firmy, ponieważ nie istniały żadne szybkie środki przekazywania nowych możliwości i informacji. Możliwość ścisłej koordynacji działań kilku zagranicznych operacji po prostu nie istniała. Obecnie komunikacja między większością części świata jest natychmiastowa. Menedżer w Bonn może zadzwonić do menedżera w Rio de Janeiro, aby omówić najnowsze wiadomości dotyczące zbiorów pomarańczy. Jeśli brazylijski menedżer chce wysłać kilka kontraktów do niemieckiego menedżera, może to zrobić faksem; jeśli zapotrzebowanie na dane jest większe, informacje mogą być przesyłane przez Internet. Jeśli brazylijski menedżer musi udać się w środek amazońskiej puszczy, aby sprawdzić dostawę pewnej rośliny leczniczej, informacje te mogą być również przesyłane do Niemiec za pomocą zaawansowanego telefonu komórkowego. Te nowe możliwości pozwalają na niemal natychmiastowy transfer ogromnych ilości danych biznesowych na cały świat i przy stale malejących kosztach. Koszt trzyminutowej rozmowy telefonicznej między Londynem a Nowym Jorkiem spadł z 13,73 USD w 1973 r. do 1,78 USD w 1993 r. Te osiągnięcia w technologii komunikacyjnej są bliskie tym w branży transportowej. P. Dicken (1992) wskazuje, że w latach 1500-1840 najlepsza średnia prędkość powozów konnych i żaglowców wynosiła około dziesięciu mil na godzinę. W latach 1850-1930 dominującą technologią stała się para, pociągi osiągały średnią prędkość sześćdziesięciu pięciu mil na godzinę, a statki zwiększały swoją prędkość do trzydziestu sześciu mil na godzinę. W latach 50. samoloty śmigłowe osiągały prędkości od trzystu do czterystu mil na godzinę. Później prędkości te wzrosły do ponad sześciuset mil na godzinę wraz z pojawieniem się technologii silników odrzutowych. Oznacza to, że dyrektor, który spędzał kilka tygodni na podróżowaniu z Lizbony do Rio de Janeiro, aby odwiedzić fabrykę, mógł odwiedzić fabryki na całym świecie w tym samym czasie. Te postępy znacznie zwiększyły potencjał przepływu towarów i osób przez granice państwowe. Dalsze postępy obejmują takie rzeczy, jak standaryzowane kontenery transportowe, które można łatwo przewieźć z przewoźników morskich na statki lądowe i można je pakować z większą wydajnością. Ponadto ogromne rozmiary nowoczesnych supertankowców znacznie zwiększyły ilość towarów, które można wysłać na raz. Oprócz postępów w transporcie i komunikacji, niektórzy naukowcy, tacy jak Theodore Levitt (1983), twierdzą, że świat stał się mniejszym miejscem pod względem gustów i preferencji. Gusta nastolatków na całym świecie mogą być ukształtowane zarówno przez filmy hollywoodzkie i MTV, jak i przez dziedzictwo kulturowe. Levitt twierdzi, że taka konwergencja preferencji nie ogranicza się do żadnej grupy wiekowej, ponieważ dorośli na całym świecie lubią chińskie jedzenie, muzykę country, pizzę i chleb pita. Chociaż pewna konwergencja z pewnością miała miejsce, naukowcy tacy jak Susan P. Douglas i Yoram Wind (1987) twierdzą, że to transgraniczne podobieństwo gustów i preferencji ogranicza się do niektórych krajów i linii produktów. Chociaż zakres konwergencji jest z pewnością dyskusyjny, jasne jest, że przynajmniej w niektórych krajach i w przypadku niektórych linii produktów gusta i preferencje konsumentów wydają się dość podobne. Ta rzeczywistość zachęca do globalnego podejścia do biznesu, ponieważ firmy starają się dotrzeć do jak największej liczby konsumentów po najniższej możliwej cenie. Innym czynnikiem prowadzącym do bardziej globalnego rynku jest historyczny spadek barier taryfowych i pozataryfowych. W 1930 r. Stany Zjednoczone podniosły taryfy na mocy ustawy taryfowej Smoot-Hawley do średnio 53 procent. Inne kraje poszły w ich ślady, a handel międzynarodowy znacznie zwolnił. W 1947 r. kilka wiodących krajów handlowych utworzyło Ogólne Porozumienie w sprawie Taryf Celnych i Handlu (GATT), które miało służyć jako forum do obniżania barier handlowych. W latach 1947-1994 kraje handlowe na całym świecie uczestniczyły w ośmiu rundach negocjacji w celu obniżenia taryf. Ostatnia runda, zatytułowana Runda Urugwajska, zgromadziła 117 uczestników i doprowadziła do średniej redukcji taryf o 35 procent. Wraz ze spadkiem barier taryfowych wzrosła zachęta do handlu, ponieważ towary produkowane za granicą stały się coraz bardziej konkurencyjne w stosunku do towarów krajowych. Oprócz porozumień GATT, kilka krajów uczestniczyło w regionalnych porozumieniach zachęcających do jeszcze niższych stawek taryfowych wśród uczestników. Przykładem takiej umowy jest Północnoamerykańskie Porozumienie o Wolnym Handlu (NAFTA) wdrożone przez Kanadę, Meksyk i Stany Zjednoczone w 1994 r. Umowa ta obniżyła taryfy celne w okresie piętnastu lat, zniosła wiele ograniczeń inwestycyjnych, umożliwiła łatwiejsze przemieszczanie się pracowników umysłowych, otworzyła zamówienia publiczne w okresie dziesięciu lat i stworzyła mechanizm rozstrzygania sporów. W rezultacie sprzedawcy detaliczni, tacy jak Wal-Mart i 7-Eleven, rozszerzyli działalność na Meksyk, a wiele meksykańskich i kanadyjskich firm korzystało z korzyści płynących z uczestnictwa w największym na świecie rynku konsumenckim, Stanach Zjednoczonych. W ciągu pierwszych dwóch lat wdrażania NAFTA handel między Kanadą, Stanami Zjednoczonymi i Meksykiem wzrósł o 43 procent. Oprócz NAFTA istnieje wiele innych takich porozumień, w tym Unia Europejska, Wspólnota Karaibska i Wspólny Rynek (CARICOM), Wspólnota Gospodarcza Państw Afryki Zachodniej (ECOWAS), Stowarzyszenie Narodów Azji Południowo-Wschodniej (ASEAN) i Wspólny Rynek Andyjski (ANCOM). Każda z tych umów ma na celu promowanie handlu poprzez minimalizowanie barier handlowych istniejących w regionie. Ściśle powiązane z liberalizacją handlu, zaletami technologicznymi i konwergencją preferencji konsumentów są czynniki konkurencyjne skupione wokół idei ekonomii skali (większe wolumeny produkcji generujące niższe koszty produkcji na jednostkę) i zalet lokalizacyjnych. Marquise R. Cvar (1986) przytacza przykład Becton Dickinson, który w latach 80. XX wieku stanął w obliczu nowych technologii w produkcji jednorazowych strzykawek, które mogłyby radykalnie obniżyć koszty tych wyrobów medycznych. Niestety, inwestycje potrzebne w technologię były tak wysokie, że aby być wydajnym, firma musiałaby przejąć 60 procent rynku amerykańskiego i japońskiego. Ponadto uważano, że podwojenie wolumenu spowoduje spadek kosztów o 20 procent. Becton Dickinson odpowiedział, tworząc standardowe strzykawki na rynki w Stanach Zjednoczonych, Europie, Meksyku, Brazylii, Australii, Filipinach, Singapurze i Hongkongu. Dzięki temu udało im się obniżyć koszt swojego produktu o 5-10 procent poniżej kosztów lokalnych konkurentów, zapewniając jednocześnie ogólnie wyższą jakość. Te oszczędności doprowadziły do średniego udziału w rynku wynoszącego 45 procent w tych krajach. Ponadto, takie podejście standaryzacyjne pozwoliło Becton Dickinson na przeniesienie produkcji do różnych zakładów zlokalizowanych w Stanach Zjednoczonych, Irlandii, Hiszpanii, Meksyku i Brazylii. W miarę wahań kursów walutowych firma była w stanie zwiększyć produkcję w bardziej opłacalnych zakładach, jednocześnie zmniejszając ją gdzie indziej, co skutkowało jeszcze większymi oszczędnościami. Ponadto firmy w takich sytuacjach mogą wykorzystywać zyski w jednym kraju do subsydiowania swojej działalności konkurencyjnej w innym. Podczas gdy przepisy antydumpingowe zabraniają sprzedaży eksportowanych towarów po cenie niższej od kosztów produkcji lub po cenie niższej niż cena na rynku krajowym, firmy czasami będą próbowały atakować konkurenta na rynku zagranicznym, stosując ceny dumpingowe w celu przejęcia udziału w rynku. Jeśli atakowana firma prowadzi działalność na rynku krajowym firmy zagranicznej, może odpowiedzieć w naturze. Firma czysto krajowa nie ma takich opcji. W odpowiedzi na przewagę konkurencyjną, jaką cieszą się globalne firmy, takie jak Becton Dickinson, lokalne firmy często odpowiadają, stając się bardziej globalnymi. Ten cykl stworzył bardziej konkurencyjny rynek światowy dla dużej liczby produktów i usług.
WNIOSEK
Zmiany w technologii komunikacyjnej i transportowej, zbieżność gustów i preferencji konsumentów, liberalizacja handlu i pojawienie się globalnych konkurentów połączyły się, tworząc o wiele bardziej zintegrowaną gospodarkę światową. Firmy takie jak Becton Dickinson, Unilever i Samsung czerpią zyski z większej liczby konsumentów i tańszych czynników produkcji, podczas gdy konsumenci mogą doświadczyć niższych cen i wyższej jakości. Oczywiście niektórzy mogą twierdzić, że korzyści płynące z globalnego rynku mają swoją cenę. Członkostwo w organizacjach handlowych, takich jak Światowa Organizacja Handlu (WTO), może ograniczać zdolność kraju do tworzenia przepisów dotyczących prowadzenia działalności gospodarczej w jego granicach, ponieważ każde prawo musi przejść kontrolę WTO. Ponadto wzajemne powiązania rynków mogą powodować negatywny efekt domina w regionie, jak to miało miejsce w przypadku kryzysu azjatyckiego w latach 90. XX wieku. Pomimo tych i innych obaw wydaje się jednak prawdopodobne, że globalny rynek będzie kontynuował swoją ekspansję, ponieważ nowe osiągnięcia technologiczne nadal zmniejszają znaczenie odległości geograficznej.
Kongres utworzył Generalny Urząd Rachunkowości Stanów Zjednoczonych (GAO) w 1921 roku jako bezpartyjne biuro, którego zadaniem było wspomaganie nadzoru nad działalnością rządu poprzez niezależne audyty agencji federalnych. Jako część władzy ustawodawczej, GAO jest niezależne od władzy wykonawczej. Nazwa GAO jest nieco myląca, ponieważ nie zajmuje się ono głównie rutynowymi czynnościami księgowymi. Jest raczej odpowiedzialne za nadzór nad rozliczalnością działalności rządu przed Kongresem. Głównym urzędnikiem GAO jest Kontroler Generalny Stanów Zjednoczonych, mianowany przez prezydenta na jedną, piętnastoletnią kadencję za radą i zgodą Senatu. Odwołanie Kontrolera Generalnego ze stanowiska wymaga uchwalenia wspólnej rezolucji Kongresu podpisanej przez prezydenta. Ochrona urzędu przyznana Kontrolerowi Generalnemu wzmacnia niezależność GAO. Wiele prac wykonywanych przez GAO pochodzi z wniosków komisji Kongresu lub od poszczególnych członków Kongresu. Pozostałe prace realizują mandaty GAO lub wymogi ustawowe.
HISTORIA I POWOŁANIE PRZEZ KONGRES
GAO (Global Economics and Accounting Act) zostało powołane na mocy Ustawy o Budżecie i Rachunkowości z 1921 r., która przekazała GAO uprawnienia, które dotychczas należały do Departamentu Skarbu. Stanowisko Kontrolera Skarbu zostało zniesione, a utworzono stanowisko Kontrolera Generalnego. Przeniesienie uprawnień poza władzę wykonawczą stanowiło istotną zmianę w federalnym zarządzaniu finansami. Wraz z utworzeniem GAO, urząd spoza władzy wykonawczej uzyskał uprawnienia do audytu finansów władzy wykonawczej. Wraz z dominującym w XX wieku obszarem zainteresowania rządu stała się prezydentura, GAO stało się potężnym organem śledczym Kongresu, uprawnionym do badania wszystkich spraw związanych z otrzymywaniem i wydatkowaniem funduszy publicznych.
ZMIENIAJĄCY SIĘ CHARAKTER ODPOWIEDZIALNOŚCI
GAO ponosi szeroką odpowiedzialność za nadzór nad działalnością finansową władzy wykonawczej i ma dużą swobodę w zakresie realizacji swoich obowiązków. Z biegiem czasu interpretacja odpowiedzialności GAO ewoluowała, przechodząc przez cztery fazy dominującej orientacji: księgowość, audyt, ewaluacja i rozwój systemów. Do końca II wojny światowej GAO miało orientację księgową. Jego praca polegała na sprawdzaniu dokładności i legalności transakcji. Operacje były scentralizowane, a personel nie posiadał kwalifikacji zawodowych. Po II wojnie światowej odpowiedzialność za praktyki księgowe została przeniesiona na agencje wykonawcze, a orientacja GAO zmieniła się na audyt. Zaczęto przeprowadzać audyty finansowe korporacji rządowych, takich jak Tennessee Valley Authority, oraz audyty oszczędności i efektywności poszczególnych działań w wybranych agencjach. Ponadto GAO aktywnie audytowało kontrakty obronne pod kątem przekroczeń kosztów i innych nadużyć. Wielu audytorów to weterani wojenni z wykształceniem w zakresie rachunkowości. Począwszy od około 1965 roku, wraz z przyjęciem programów "Wielkiego Społeczeństwa", orientacja GAO zmieniła się na ocenę programów i obsługę Kongresu. Zatrudniano pracowników o zróżnicowanym wykształceniu ze względu na ich wiedzę specjalistyczną. Od początku lat 80. XX wieku GAO koncentruje się na rozwoju systemów finansowych i zarządzania. Zasoby przeznaczane są na doskonalenie systemów kontroli wewnętrznej i systemów sprawozdawczości finansowej, a także na rozwój systemów zarządzania opartych na wynikach.
CHARAKTERYSTYKA DZIAŁALNOŚCI
GAO ma szeroki zakres obowiązków, który obejmuje (1) audyty i oceny, (2) politykę rachunkowości i zarządzania informacją, (3) usługi prawne oraz (4) sprawozdawczość. Chociaż GAO ma szerokie uprawnienia, Sąd Najwyższy Stanów Zjednoczonych orzekł w sprawie Bowsher przeciwko Synar (106 S. Ct. 3181, 1986), że Kontroler Generalny nie może wykonywać uprawnień decyzyjnych władzy wykonawczej. Audyty GAO zazwyczaj różnią się od audytów finansowych sektora prywatnego. Zakres audytów GAO może być szerszy lub węższy niż zakres audytów pozarządowych. Aby zapewnić niezbędną wiedzę specjalistyczną, personel zespołów audytowych GAO często posiada wykształcenie akademickie w dziedzinach innych niż rachunkowość. Audyty GAO są zazwyczaj inicjowane na wniosek i zazwyczaj nie są przeprowadzane rutynowo. Jednakże GAO jest odpowiedzialne za audyt skonsolidowanych sprawozdań finansowych władzy wykonawczej w całym rządzie. W zakresie polityki rachunkowości i zarządzania informacją, GAO uczestniczy w opracowywaniu zasad i standardów rachunkowości dla władzy wykonawczej oraz doradza agencjom federalnym w zakresie polityki i procedur fiskalnych. Ponadto ustanawia standardy audytu i oceny programów rządowych, w tym standardy dla jednostek rządowych podlegających Ustawie o Jednolitym Audycie z 1984 r. GAO udziela Kongresowi porad prawnych, opiniuje wnioski legislacyjne i pomaga w opracowywaniu projektów ustaw. Jego pracownicy badają potencjalne naruszenia prawa cywilnego i karnego wynikające z audytów i ocen. W ramach swoich funkcji sądowniczych GAO rozstrzyga protesty w przetargach kwestionujące przyznane kontrakty rządowe, interpretuje przepisy regulujące wydatki publiczne oraz rozstrzyga roszczenia na korzyść i przeciwko rządowi. Ustalenia i zalecenia GAO są publikowane w formie raportów dla Kongresu, składane w formie zeznań przed Kongresem lub przekazywane w formie ustnych briefingów. Ponadto GAO publikuje decyzje Kontrolera Generalnego. Wszystkie jawne raporty są dostępne publicznie. Aby zmotywować do poprawy funkcjonowania agencji federalnych, GAO podjęło dwie ważne inicjatywy. Są to: Seria Wysokiego Ryzyka oraz Seria Wydajność i Rozliczalność. Prace wstępne nad serią "High Risk Series" rozpoczęły się w 1990 roku. Obszary programów wysokiego ryzyka to te, które są narażone na marnotrawstwo, oszustwa, nadużycia i niewłaściwe zarządzanie. Raporty te identyfikują obszary programów wysokiego ryzyka, oceniają przyczyny ryzyka, zalecają sposoby jego redukcji oraz monitorują stan działań na rzecz utrzymania poprawy. Oznaczenie jako obszar programu wysokiego ryzyka jest sygnałem poważnej słabości. Usunięcie oznaczenia jest potwierdzeniem poprawy w systemach finansowych i sprawozdawczości. Seria "Performance and Accountability Series" została wprowadzona w 1999 roku. Zawiera ona raport ogólny oraz oddzielne raporty dotyczące każdego departamentu rządu i większości innych głównych niezależnych agencji. Raport ogólny omawia wyzwania, przed którymi stoi agencja federalna w dążeniu do poprawy wydajności, zarządzania i rozliczalności. Seria ta ma na celu zrozumienie sposobów zastosowania zarządzania opartego na wydajności w celu osiągnięcia oszczędności, wydajności i skuteczności w działalności rządowej. Adres URL strony GAO to http://www.gao.gov. W tej lokalizacji znajdują się wskazówki dotyczące sposobów uzyskiwania raportów, zeznań, decyzji i innych informacji, a także opisy indeksów, katalogów i innych sposobów lokalizowania publikacji GAO.
Giełda papierów wartościowych to forum obrotu papierami wartościowymi reprezentującymi udziały firm. Giełda zapewnia sposoby pozyskiwania finansowania poprzez sprzedaż udziałów inwestorom zewnętrznym. Zapewnia mechanizm wyceny przedsiębiorstw poprzez proces ustalania cen oraz sposób rozpowszechniania takich informacji. Formalna definicja terminu "giełda" jest kluczowym elementem prawa i regulacji dotyczących rynków obrotu papierami wartościowymi, omówiona przez Domowitza (1996) i Lee (1998). W Stanach Zjednoczonych giełda New York Stock Exchange (NYSE) jest prawnie giełdą, podczas gdy rynki prowadzone przez National Association of Securities Dealers (NASDAQ) i Instinet, sieć komunikacji elektronicznej (ECN), nią nie są. Wszystkie trzy przykłady spełniają jednak powyższą definicję giełdy papierów wartościowych. Biorąc pod uwagę różnice w definicjach prawnych w poszczególnych krajach, potrzebne jest bardziej ujednolicone podejście, aby skupić dyskusję. Przyjęte tutaj podejście polega na zidentyfikowaniu ważnych atrybutów i funkcji instytucji spełniających podstawową definicję w praktyce. Giełdy udostępniają systemy obrotu i mogą oferować więcej niż jeden. Rodzaje systemów transakcyjnych są czasami różnicowane ze względu na formę pośrednictwa rynkowego świadczonego przez podmioty z bezpośrednim dostępem do systemu. Charakter konkurencji między giełdami jest ich cechą charakterystyczną, ponieważ giełdy mogą przyjmować różne struktury rynkowe, aby konkurować na różne sposoby. Giełda papierów wartościowych jest podmiotem gospodarczym, a forma jej mechanizmów zarządzania jest istotna dla zrozumienia jej natury i sposobu działania.
SYSTEMY TRANSAKCYJNE
Rynki transakcyjne można zdefiniować jako systemy składające się z systemu kierowania zleceniami, sieci informacyjnej i mechanizmu realizacji transakcji . System transakcyjny to technologia komunikacyjna służąca do przekazywania dozwolonych komunikatów między traderami, wraz z zestawem reguł, które przekształcają komunikaty traderów w ceny transakcyjne i alokację ilości akcji pomiędzy uczestników rynku. Charakter dozwolonych komunikatów różni się w zależności od zasad i technologii giełdy. Typowy komunikat składa się z oferty kupna lub sprzedaży określonej liczby akcji po określonej cenie. Na przykład NYSE zezwala na takie komunikaty, jak również zlecenia kupna określonej ilości akcji po aktualnych cenach rynkowych. System OptiMark giełdy Pacific Stock Exchange umożliwia również inwestorom przesyłanie komunikatów wskazujących na siłę ich chęci zawarcia transakcji na akcjach danej spółki po określonej cenie. Możliwe są zlecenia na akcje danej spółki, uzależnione od realizacji transakcji w innych spółkach. Wraz z postępem technologicznym wzrasta zdolność systemów transakcyjnych do oferowania bardziej elastycznych komunikatów. Przetwarzanie komunikatów i informacji z systemu w cenę i zbiór alokacji ilościowych podlega innemu zestawowi reguł. W otwartych aukcjach typu "outcry" oferty kupna i sprzedaży są wymieniane ustnie przez inwestorów stojących w jednym miejscu. Przyjęcie oferty kupna lub sprzedaży przez innego inwestora generuje transakcję. W systemach dealerskich, takich jak NASDAQ, dealerzy przyjmują zlecenia telefonicznie lub za pośrednictwem systemu komputerowego i zawierają transakcje po cenach, które sami ustalili. W aukcjach zbiorczych, takich jak aukcja Arizona Stock Exchange, cena jest ustalana poprzez maksymalizację wolumenu obrotu, biorąc pod uwagę liczbę zleceń składanych w momencie aukcji. Na większości rynków skomputeryzowanych inwestorzy składają zlecenia do centralnej księgi zleceń z limitem, a algorytm matematyczny określa ceny i ilości. Przykładami są system CAC Giełdy Paryskiej i system OM Giełdy Papierów Wartościowych w Sztokholmie. Zakres możliwości jest tu szeroki, a taksonomię reguł przedstawiono w publikacji Domowitz (1993).
POŚREDNICTWO RYNKOWE
Inwestorzy zazwyczaj nie mają swobodnego dostępu do systemów transakcyjnych. Wejście do systemów giełdowych odbywa się za pośrednictwem brokerów. Brokerzy mogą po prostu kierować zlecenia do giełd. Czasami podejmują decyzje o tym, która giełda i który system w ramach giełdy powinien przetwarzać poszczególne części zlecenia. Na rynkach otwartego obrotu brokerzy również fizycznie reprezentują zlecenia na parkiecie giełdy. Giełdy wyróżniają się przede wszystkim klasą pośredników zwanych animatorami rynku. Animatorzy rynku działają na własny rachunek, zazwyczaj składając ofertę sprzedaży i ofertę kupna jednocześnie, ale po różnych cenach. W ten sposób oboje uczestniczą w procesie ustalania cen i zapewniają rynkowi natychmiastowość poprzez gotowość do bycia kontrahentem w zleceniu, dla którego inny inwestor może nie być natychmiast dostępny. Na niektórych giełdach, zwłaszcza na NYSE, istnieje jeden główny animator rynku wyznaczony przez giełdę, zwany specjalistą. Specjalista otrzymuje wynagrodzenie za zapewnienie natychmiastowości i utrzymanie uporządkowanego rynku, mając prywatny dostęp do informacji o przepływie zleceń poprzez arkusz zleceń dla danej akcji. Dla danej akcji może istnieć wielu animatorów rynku, niezależnie od konkretnej formy systemu transakcyjnego. Prototypowym przykładem są rynki dealerskie, na których dealerzy pełnią funkcję animatorów rynku. Publikują oferty kupna i sprzedaży oraz handlują akcjami z własnych zapasów. Elektroniczne rynki zleceń z limitem ceny oferują możliwość handlu bez takiego pośrednictwa finansowego. W praktyce jednak animatorzy rynku istnieją również na rynkach elektronicznych. W przypadku danego papieru wartościowego często wyznacza się wielu animatorów rynku.
POŚREDNICTWO RYNKOWE
Inwestorzy zazwyczaj nie mają swobodnego dostępu do systemów transakcyjnych. Wejście do systemów giełdowych odbywa się za pośrednictwem brokerów. Brokerzy mogą po prostu kierować zlecenia do giełd. Czasami podejmują decyzje o tym, która giełda i który system w ramach giełdy powinien przetwarzać poszczególne części zlecenia. Na rynkach otwartego obrotu brokerzy również fizycznie reprezentują zlecenia na parkiecie giełdy. Giełdy wyróżniają się przede wszystkim klasą pośredników zwanych animatorami rynku. Animatorzy rynku działają na własny rachunek, zazwyczaj składając ofertę sprzedaży i ofertę kupna jednocześnie, ale po różnych cenach. W ten sposób oboje uczestniczą w procesie ustalania cen i zapewniają rynkowi natychmiastowość poprzez gotowość do bycia kontrahentem w zleceniu, dla którego inny inwestor może nie być natychmiast dostępny. Na niektórych giełdach, zwłaszcza na NYSE, istnieje jeden główny animator rynku wyznaczony przez giełdę, zwany specjalistą. Specjalista otrzymuje wynagrodzenie za zapewnienie natychmiastowości i utrzymanie uporządkowanego rynku, mając prywatny dostęp do informacji o przepływie zleceń poprzez arkusz zleceń dla danej akcji. Na danej akcji może istnieć wielu animatorów rynku, niezależnie od konkretnej formy systemu transakcyjnego. Prototypowym przykładem są rynki dealerskie, na których dealerzy pełnią funkcję animatorów rynku. Publikują oferty kupna i sprzedaży oraz handlują z własnych zapasów. Elektroniczne rynki z limitem zleceń oferują możliwość handlu bez takiego pośrednictwa finansowego. W praktyce jednak animatorzy rynku istnieją również na rynkach elektronicznych. Wielu animatorów rynku dla danego papieru wartościowego jest często wyznaczanych przez giełdę, wypełniają oni obowiązki podobne do obowiązków specjalisty i otrzymują wynagrodzenie za tę usługę. Każdy, kto ma bezpośredni dostęp do systemu transakcyjnego, może pełnić funkcję animatora rynku, po prostu stale oferując notowania akcji po obu stronach rynku.
KONKURENCJA
Giełdy mają dwie klientele: firmy, które notują swoje akcje, oraz inwestorów, którzy handlują na giełdzie. Historycznie, produkt (notowanie) oferowany spółkom był pakietem składającym się z (1) płynności, (2) monitorowania obrotu pod kątem form oszustw, (3) standardowych zasad obrotu, (4) sygnału wysokiej jakości akcji spółki notowanej oraz (5) funkcji rozliczeniowej zapewniającej terminową płatność i dostawę akcji . Produkt oferowany inwestorom składa się z połączenia informacji o płynności i cenach, a także wszelkich korzyści płynących dla inwestora z pakietu oferowanego spółkom. Regulacje rządowe i rosnąca konkurencja ze strony zautomatyzowanych systemów obrotu zmniejszają znaczenie monitorowania giełd i ujednoliconych zasad. Postęp technologiczny w przetwarzaniu informacji pozwala na lepsze sygnały dotyczące jakości spółki niż proste notowania, umożliwia szeroką dystrybucję informacji o cenach poza giełdami i umożliwia oddzielenie funkcji rozliczeniowej od innych operacji giełdowych. W rezultacie giełdy konkurują obecnie wyłącznie w wymiarach płynności i kosztów obrotu . Konkurencja płynności i kosztów doprowadziła do wzrostu automatyzacji procesu realizacji transakcji giełdowych. Zautomatyzowane giełdy są tańsze w budowie i obsłudze oraz zapewniają niższe koszty realizacji transakcji. Płynność jest zwiększana dzięki możliwości tworzenia rozległych sieci traderów za pośrednictwem systemów komunikacyjnych z automatycznym systemem realizacji transakcji w centrum. Dążenie do zwiększenia płynności poprzez komputeryzację doprowadziło do nowych zmian w strukturze branży usług giełdowych, w szczególności fuzji i aliansów między zautomatyzowanymi giełdami w celu zwiększenia przepływu zleceń. Technologia komunikacyjna i komputeryzacja realizacji transakcji również zglobalizowały handel. Fizyczna lokalizacja i granice parkietu giełdowego nie mają już znaczenia dla traderów. Spółka nie musi być notowana ani nawet handlować na giełdzie krajowej. Istnieje nie tylko wielu potencjalnych dostawców usług realizacji transakcji, ale giełdy elektroniczne umieszczają własne terminale na zagranicznych rynkach, umożliwiając bezpośredni dostęp do notowań zagranicznych, niezależnie od narodowości zaangażowanych firm. Przykładem jest brytyjska giełda elektroniczna Tradepoint, która prowadzi działalność w Stanach Zjednoczonych.
ZARZĄDZANIE
Giełdy historycznie były zorganizowane jako spółdzielnie członkowskie non-profit. Zarządzanie giełdami ewoluuje w kierunku struktury korporacyjnej nastawionej na zysk. Dziesięć takich demutualizacji na świecie jest wymienionych w Domowitz i Stell (1999), a podobne inicjatywy są badane przez wiele tradycyjnych giełd, w tym NASDAQ i NYSE. Zaproponowano trzy uzasadnienia tej zmiany. Zwiększona konkurencja między giełdami wymusza zmianę struktury własnościowej (Hart i Moore, 1996). Jest to również pogląd branży usług giełdowych. Argument branży jest po prostu taki, że struktura korporacyjna nastawiona na zysk umożliwia szybsze podejmowanie inicjatyw w odpowiedzi na postęp konkurencji niż organizacja członkowska zorientowana na komitety i głosowanie. Zmiany w stosunkach umownych między giełdami a spółkami notowanymi mogą przeważać nad konkurencją jako siłą napędową przejścia od struktury spółdzielczej do struktury korporacyjnej (Macey i O′Hara, 1999). Długoterminowa wzajemna zależność między firmami i giełdami już nie istnieje, a animatorzy rynku nie dokonują inwestycji w konkretne firmy, które mogłyby być wspierane w ramach współpracy. Trzeci pogląd głosi, że komunikacja i skomputeryzowana technologia realizacji transakcji umożliwiają i sprzyjają zmianie struktury zarządzania (Domowitz i Stell, 1999). Tradycyjne giełdy są ograniczone powierzchnią, a dostęp do nich jest racjonowany poprzez sprzedaż ograniczonej liczby członkostw. W zautomatyzowanej aukcji nie ma barier uniemożliwiających zapewnienie nieograniczonego bezpośredniego dostępu, z cennikiem opartym na opłatach transakcyjnych, który z kolei sprzyja działalności korporacyjnej nastawionej na zysk. Wszystkie przykłady zmiany w zarządzaniu zaczynają się od przejścia z technologii obrotu giełdowego na zautomatyzowaną realizację transakcji. W przypadku usług realizacji transakcji, które nie miały wcześniej spółdzielczej struktury zarządzania, struktura wzajemna jest rutynowo pomijana na rzecz spółki akcyjnej nastawionej na zysk.
"Żadna pojedyncza siła nie uosabia naszej transformacji elektronicznej bardziej niż ewoluujące medium znane jako Internet. Technologia internetowa ma głęboki wpływ na globalny handel usługami", zgodnie z dokumentem Białego Domu z 1997 r. Szacuje się, że handel elektroniczny osiągnął wartość około 63 miliardów dolarów w 1999 r. i oczekuje się, że wzrośnie do 1444 bilionów dolarów do 2003 r. (Forrester Research, 1999). Handel elektroniczny to szerokie pojęcie opisujące działalność biznesową z powiązanymi danymi technicznymi, które są prowadzone elektronicznie. Jest to cały zestaw różnych, cyfrowo obsługiwanych działań, które stopniowo zastępują bardziej tradycyjne funkcje handlowe w formie stacjonarnej. Podczas gdy szersze zjawisko "elektronizacji działalności gospodarczej" obejmuje digitalizację wszystkich procesów generowania bogactwa ekonomicznego - w tym analizę ekonomiczną, produkcję, przechowywanie, dostarczanie informacji, marketing itd. - to obszar sprzedaży i powiązanych procesów ułatwionych przez media elektroniczne, które popularnie nazywane są "handlem elektronicznym". W związku z tym w ramach bardziej ogólnego zjawiska digitalizacji współczesnego życia znajdujemy jego najważniejszy składnik - handel elektroniczny.
NOWE SPOSOBY PROWADZENIA DZIAŁALNOŚCI
Systemy korporacyjne, non-profit i rządowe włączają wiele coraz bardziej zdigitalizowanych procesów, które prowadzą do zdumiewających wzrostów produktywności w światowej gospodarce, ponieważ procesy te stają się mniej kosztowne, mniej czasochłonne i bardziej użyteczne ("Dlaczego rewolucja produktywności", 2000). Na przykład połączenie z infolinią wymagało wcześniej operatora, wyszukiwania w papierowych katalogach i wyszukiwania lokalnego. Teraz obejmuje to krajową (lub międzynarodową) komputerową bazę danych, syntezę głosu i automatyczne połączenie. Ponadto proces ten został rozszerzony; można przeprowadzić wyszukiwania wsteczne w Internecie, które wskażą właściciela numeru telefonu, połączą go z rachunkiem telefonicznym i nie będą obejmować żadnej osoby jako dostawcy usług. Tysiące "procesów systemowych" przechodzą tego typu mutację, co prowadzi do tańszych, mniej czasochłonnych i rozszerzonych rodzajów usług. Triada marketingu, reklamy i opieki stanowi rdzeń zjawiska. Marketing jeden do jednego (w którym duże bazy danych klientów łączą wiele informacji o klientach, tworząc w ten sposób bardzo wydajne leady) jest powiązany z bardzo dostosowaną reklamą: firma zna klienta, gdy jest on podłączony do Internetu, i uruchamia serię indywidualnie ukierunkowanych banerów, które bardzo ściśle odpowiadają potrzebom klienta. Te banery reklamowe mogą eksplorować geografię klienta w danym momencie (na przykład, jeśli jest w samochodzie, najbliższej stacji benzynowej, drogerii lub barze sportowym), powiązania między produktami lub niedawne zakupy (kupił komputer, potrzebuje części i oprogramowania), czynniki osobiste (ślub, potrzeba sukienki, urodziny, śmierć w rodzinie) i inne czynniki. Część e-opieki triady to powstający proces nowej organizacji. Produkty bogate technologicznie wymagają lepszego, opartego na technologii wsparcia. E-opieka - połączenie poczty e-mail, wsparcia internetowego i, gdy jest to niezbędne, wsparcia telefonicznego - jest tańsza i bardziej wydajna, jeśli jest prawidłowo wykonana niż tradycyjne środki. Organizacje odkrywają, że te same rygorystyczne standardy tradycyjnej opieki muszą być stosowane w e-organizacji. Rewolucja handlu elektronicznego jest w początkowej fazie i będzie stopniowo przejmować wszystkie procesy, bezpośrednio lub pośrednio. Rozróżnienie między handlem "ślimaczym" a handlem elektronicznym zniknie, a wszystkie procesy staną się cyfrowe lub będą wspomagane przez cyfrowe procesy pomocnicze. Tempo tej transformacji jest tym, co odróżnia wygrywanie od przegrywania konkurentów, branż i inwestorów. Wewnętrzna natura produktu i procesów, a także dynamika i opór korporacji i branż na zmiany, będą decydować o tempie zmian i zyskach w produktywności. Wraz z telefonem, koleją i elektrycznością, Internet jest jednym z głównych czynników zmian współczesnego życia. Dwa główne czynniki wpływają na szybkość zmian w zakresie produktu: (1) bitowalność i (2) e-komodyfikacja. Produkt jest bitowalny lub nie. Jeśli można go przesłać przez Internet, produkt (lub usługa) jest bitowalny. Oprogramowanie, informacje, usługi zdalnego wsparcia, bankowość, pośrednictwo i ubezpieczenia, na przykład, należą do tej kategorii. Jeśli produkt nadaje się do gryzienia, nie musi być ostatecznie fizycznie dostarczany, chociaż może minąć trochę czasu, zanim zdobędziemy wystarczającą przepustowość lub przyzwyczaimy konsumentów do tej idei. Czynnik e-komodyfikacji jest bardziej złożony. E-towar to przedmiot, którego nie trzeba dotykać, oglądać, przymierzać, próbować, smakować ani ściskać przed zakupem. Oczywiste jest, że ubrania, samochody, jedzenie, mięso, warzywa i dziewczyny nie należą do tej kategorii. Z drugiej strony jest to w dużej mierze kwestia nastawienia i potrzeb. Zapracowani dyrektorzy zrezygnują z badania artykułów spożywczych dla wygody posiadania ich w domu, gdy tam dotrą. Gdy nastolatek przymierzy markowy element odzieży, aby sprawdzić rozmiar, staje się on towarem, ponieważ rozmiary są zazwyczaj kontrolowane pod kątem jakości. Kupujący mieszkający w bardzo odległym miejscu może uznać przedmiot za towar, ponieważ koszt jego badania nie uzasadnia długich podróży - a w przypadku ubrań można je przerobić. Ostatecznie towary nadające się do gryzienia i towary nadające się do gryzienia stanowią największy potencjał dla handlu elektronicznego. Badania przewidują, że w Internecie będzie szeroki zakres ekspansji biznesowej. Odzwierciedla to Rysunek 2, który zawiera szereg prognoz z czterech różnych organizacji. Oczekuje się, że podróże i odzież będą największymi obszarami B2C (business to consumer). Jednocześnie oczekuje się, że wolumeny handlu B2B (business to business) będą sześć do dziesięciu razy większe niż B2C, ale z dużo mniejszymi marżami.
NOWE ZASADY HANDLU ELEKTRONICZNEGO
Pojawia się zupełnie nowy zestaw zasad handlu. Po pierwsze, uświadomienie sobie, że świat fizyczny Malthusa ustępuje miejsca miejscu, w którym informacji jest mnóstwo, a liczba oczu ograniczona. Po drugie, uświadomienie sobie, że paradoksy istnieją z powodu technologii i że rozdawanie rzeczy za darmo, niechronienie oprogramowania przed prywatnością i płacenie za odwiedzających może być paradygmatem świata elektronicznego. Po trzecie, znaczenie słów konkurent i branża ulega zmianie. W bezosobowym świecie Internetu obecni i przyszli klienci oraz dostawcy są zarówno konkurentami, jak i sojusznikami. Po czwarte, branże mieszają się i zmieniają, a umowy afiliacyjne umożliwiają tworzenie całych cykli produktów bez posiadania zapasów lub zakładów produkcyjnych. Wreszcie, zmieniają się modele cenowe; pojawiają się hybrydy stałych cen, aukcji, zmiennych cen, cen warunkowych i cen z podaną przez siebie ceną, które tworzą nowe modele biznesowe. Podczas gdy technologia otrzymuje większość uznania, w rzeczywistości sukcesy zwykle opierają się na triadzie: (1) technologii, (2) innowacji modelu biznesowego i (3) rodzinie usług ułatwiających (dochodowych). (Zobacz rysunek 3) Sektor B2B handlu elektronicznego będzie prezentował zarówno modele pionowe, jak i poziome. W modelu pionowym firma będzie koncentrować się na branży i rozwijać duże doświadczenie branżowe w celu rozwijania swoich rynków. W modelu poziomym firma będzie koncentrować się na jednym typie produktu lub usługi i oferować go w różnych branżach (np. usługi płacowe przez Internet). Sektor B2B różni się zasadniczo od B2C. Kupujący są dobrze poinformowani, posiadają wiele zasobów i mogą negocjować w oparciu o wolumen. Nazwa marki jest znacznie mniej brana pod uwagę niż cena, jakość, czas dostawy i niezawodność. Wyłoniły się trzy różne modele dla transakcji B2B: (1) model e-katalogu dla sytuacji, w których istnieje wiele różnych pozycji w rozproszonych lokalizacjach, a cena jest stała (np. części samochodowe); (2) model aukcyjny, w którym produkty nie są standaryzowane i występują duże różnice w postrzeganiu wartości (np. aukcje używanych produktów kapitałowych); oraz (3) model aukcyjny towarów, w którym nie ma zbyt wielu wariantów rodzaju produktu i są duzi kupujący i sprzedający (np. gaz ziemny, boczek wieprzowy, kawa itp.). Handel elektroniczny stopniowo i nieodwracalnie zmienia oblicze wielu przedsiębiorstw z powodu trzech dominujących zjawisk: (1) dezintermediacja, w której jedna strona transakcji jest eliminowana (np. brokerzy w handlu internetowym); (2) reintermediacja, w której nowy elektroniczny pośrednik pojawia się między sprzedawcą a kupującym (np. księgarnie elektroniczne, które przyjmują zamówienia i przekazują je dostawcom, którzy mają książkę w magazynie); i (3) kanibalizacja, w wyniku której przedsiębiorstwa stopniowo rezygnują ze swoich tradycyjnych, stacjonarnych przedsięwzięć na rzecz lepszego modelu elektronicznego (np. tradycyjne apteki otwierają sklepy internetowe z lekami).
PROBLEMY W POSZUKIWANIU ROZWIĄZAŃ
Moc e-commerce nie jest pozbawiona niebezpieczeństw i wad. Drastycznie wpływa na tradycyjne firmy, które nie mogą kontynuować działalności zgodnie z tradycyjnym modelem ekonomicznym. Na przykład firma maklerska, która pobierała średnio 90 USD za transakcję, nie może konkurować z transakcjami online za 10 USD; jeśli jakiekolwiek dostosowania spotkają się z silnym oporem, organizacja może skazać się na zagładę. Słabości bezpieczeństwa infrastruktury e-commerce zostały dobrze nagłośnione: wirusy, włamania do zabezpieczeń i niemożność świadczenia usług z powodu ataków zbiorczych to zjawiska, które nie znikną. Trwa ciągła walka między technologiami ułatwiającymi, wewnętrznymi zagrożeniami technologicznymi i zarządzaniem tymi czynnikami. Kwestie prywatności stanowią inny zestaw wyzwań. Ta sama technologia, która ułatwia działalność biznesową i zapewnia wspaniałe usługi, jest również poważnym zagrożeniem dla wolności jednostki. Duże bazy danych łączące informacje o aktywności gospodarczej z różnych źródeł (zakupy, działalność bankowa, dokumentacja medyczna) zapewniają duże korzyści ekonomiczne, czyniąc marketing bardziej efektywnym, pożyczki bardziej ukierunkowanymi, a informacje medyczne wszechobecnymi. Stwarzają również duże zagrożenia dla potencjalnych nadużyć prywatności. Doubleclick.com, firma zajmująca się technologią analizy marketingowej, śledzi działania klientów w witrynach internetowych. Jej analiza ścieżki kliknięć pozwala firmom zrozumieć zachowania klientów i ulepszyć swoją ofertę. Mają jednak 11 000 klientów, a łączenie profili kupujących z tych witryn jest przez wiele osób uważane za zbyt nachalne. Złożono skargi do Federalnej Komisji Handlu i zaproponowano bojkoty. W odpowiedzi Doubleclick przyciągnął do swojego zarządu urzędników o większym profilu "głównych". Rozwiązania nie są jednak tak proste, jak mogłoby się wydawać. Uczynienie niektórych działań nielegalnymi może w rzeczywistości stworzyć możliwości arbitrażu i niezwykłe korzyści dla graczy internetowych. Ponieważ w Stanach Zjednoczonych obowiązują surowe przepisy dotyczące hazardu, kasyna elektroniczne powstają w kooperacyjnych rajach na Bahamach: przeszkoda prawna w Stanach Zjednoczonych to okazja biznesowa dla innego kraju. Gdy w Niemczech wprowadzane są ograniczenia dotyczące korzystania z baz danych i ich zawartości, natychmiast pojawiają się raje baz danych offshore. Gdy w Chinach pojawia się cenzura stron internetowych, tworzone są wolne chińskie strony internetowe. Systemy telefoniczne są monitorowane i opodatkowane przez PTT, tworzone są ponadnarodowe satelitarne sieci telefoniczne. W związku z tym łatwe rozwiązania nie są możliwe i konieczne będzie stworzenie nowych metod ustanawiania porządku, wydajności i przyzwoitości. Ponieważ Internet jest prawdziwie ponadnarodowym bytem, narody muszą się zjednoczyć, aby utrzymać porządek, wydajność i rozsądek w cyberprzestrzeni. Te same czynniki ekonomiczne, które umożliwiają arbitraż, mogą być również wykorzystywane do samokontroli i monitorowania środowiska e-commerce. Aby w pełni korzystać z tego medium, firmy/podmioty i narody muszą mieć rozwiązania do rozliczania płatności, rozwiązania celne i dostęp do dużych rynków gospodarki. Kraje nieuczciwe mogą zostać wykluczone z łańcuchów rozliczeniowych płatności; nieuczciwe firmy zachowujące się w niedopuszczalny sposób mogą być bojkotowane i wykluczane z wszelkich powiązań i transakcji linkowania. Samokontrolujące pieczęcie, takie jak produkty, inspekcje i certyfikaty Web Trust i SysTrust Amerykańskiego Instytutu Biegłych Rewidentów (AICPA), mogą być używane do monitorowania i nadzoru. Międzynarodowe struktury informacyjne, obejmujące wiele współpracujących organizacji, mogą być czujne na nieuczciwe zachowania i przewodzić działaniom na rzecz tworzenia rozsądnych i bezstronnych zasad. Technologia może być używana do monitorowania i wykrywania prania pieniędzy, nielegalnych przepływów produktów i handlu informacjami. Jednak takie monitorowanie musi być starannie pomyślane i nadzorowane, ponieważ może przerodzić się w zachowanie w stylu "Wielkiego Brata". Najważniejsze jest, aby nie ulec łatwej pokusie tworzenia restrykcyjnych i nieprzemyślanych praw, takich jak te, które ustawodawcy mają tendencję tworzyć, gdy dochodzi do jakiegoś lokalnego skandalu.
Koncepcja wynalezienia sprzętu w celu wspomagania produktywności komercyjnej nie jest nowa. Na przykład tysiące lat temu Chińczycy dążyli do większej wydajności w liczeniu liczb, co doprowadziło do wynalezienia liczydła, przenośnego urządzenia mechanicznego. Kolejny kamień milowy w dziedzinie sprzętu został osiągnięty, gdy Charles Babbage w 1822 r. zaproponował maszynę, która obliczałaby tablice matematyczne; większość jego projektu została wykorzystana w późniejszych komputerach . Herman Hollerith zaprojektował metodę przechowywania liczb na kartach perforowanych w celu obliczenia spisu ludności z 1890 r., a założona przez niego firma ostatecznie stała się IBM Corporation.
ROZPOCZYNA SIĘ ERA KOMPUTERÓW
Pierwszy komputer elektroniczny, ENIAC, został opracowany na Uniwersytecie Pensylwanii w 1946 roku. Używał lamp próżniowych i ważył trzydzieści ton. Remington Rand Corporation wyprodukował pierwszy komputer komercyjny, Univac, w 1951 roku, który również wykorzystywał tranzystory . Tranzystory zastąpiły lampy próżniowe, były znacznie mniejsze i zużywały mniej energii niż lampy. Niedługo potem tranzystory zostały zastąpione układami scalonymi, co jeszcze bardziej zminimalizowało rozmiar i zmniejszyło zapotrzebowanie na energię. Dostępność układów scalonych umożliwiła stworzenie pierwszego komputera osobistego w 1977 roku, kiedy Stephen Jobs i Steve Wozniak przedstawili "Apple II" . IBM zaoferował swój pierwszy mikrokomputer w 1981 roku, a Apple Macintosh został wprowadzony w 1984 roku. Macintosh był pierwszym popularnym komputerem z graficznym interfejsem użytkownika (GUI), a także miał drukarkę laserową, która mogła łączyć tekst i obrazy . System operacyjny GUI odbiera dane wejściowe zarówno z klawiatury, jak i urządzenia wskazującego (myszy). Ten typ systemu był dobrodziejstwem dla użytkowników komputerów, którzy nie byli biegli lub nie czuli się komfortowo z klawiaturą, a obecnie większość komputerów osobistych wymaga użycia myszy.
KLASYFIKACJE I DEFINICJE KOMPUTERÓW
Istnieją trzy główne klasyfikacje komputerów: komputer mainframe, minikomputer i mikrokomputer. Główne kategorie mogą być używane jedynie jako ogólne wytyczne ze względu na ogromną różnorodność linii produktów. Serwery komputerowe zostały również uwzględnione w tej dyskusji ze względu na ich ważną rolę w aplikacjach sieciowych i internetowych. Komputer mainframe to każdy duży system komputerowy, taki jak ten używany przez Internal Revenue Service. Innym typowym zastosowaniem komputera mainframe jest system sprzedaży biletów lotniczych, który może mieć tysiące użytkowników podłączonych do jednego komputera. Następny mniejszy komputer jest nazywany minikomputerem. Jest średniej wielkości i może obsługiwać do kilkuset użytkowników. Mikrokomputer jest najmniejszy pod względem rozmiaru i mocy, a termin ten jest "ogólnie synonimem komputera osobistego, takiego jak komputer z systemem Windows lub Macintosh, ale może odnosić się do dowolnego rodzaju małego komputera" (CMP Net Online Encylopedia). Mikrokomputery mogą być również przenośne, a niektóre mają procesory Pentium, czternastocalowe kolorowe ekrany i wielogigabajtowe dyski twarde. Bardzo małe komputery obejmują jednostki przenośne i komputery typu pen, które przechowują informacje, które użytkownik wprowadza rysikiem, a nie klawiaturą (Hutchinson i Sawyer, 1998). Komputer "serwerowy" to komputer, który służy do łączenia klastra komputerów osobistych za pomocą sieci lokalnej (LAN). Strony sieci World Wide Web są również przechowywane na "serwerze WWW", którym zazwyczaj jest dedykowany komputer osobisty.
KOMPONENTY KOMPUTERA
Jednostka centralna (CPU) CPU jest sercem wszystkich komputerów. Wszystkie dane przechodzą przez nią. Według encyklopedii internetowej CMP Net:
[CPU to] część obliczeniowa komputera. Nazywana również procesorem, składa się z jednostki sterującej i ALU. Obecnie procesory prawie wszystkich komputerów są umieszczone na jednym chipie. Procesor, zegar i pamięć główna tworzą komputer. Kompletny system komputerowy wymaga dodania jednostek sterujących, urządzeń wejścia, wyjścia i pamięci masowej oraz systemu operacyjnego.
Mikrokomputery, czyli komputery osobiste, wykorzystują mikroprocesory, które działają z szybkością około 500 megaherców na sekundę. Komputery mainframe mierzą swoją prędkość w milionach instrukcji na sekundę.
Pamięć o dostępie swobodnym Pamięć o dostępie swobodnym (RAM) składa się z mikroprocesorów, które umożliwiają tymczasowe przechowywanie danych. Pamięć RAM pełni funkcję przestrzeni roboczej dla procesora. "Przestrzeń robocza" tymczasowo przechowuje program i aktywne obliczenia przed wyprowadzeniem wyniku. Przykładem może być użycie narzędzia do sprawdzania pisowni w edytorze tekstu w dokumencie. Sprawdzane słowa i program byłyby tymczasowo przechowywane w pamięci RAM.
Urządzenia wejściowe Komputery otrzymują informacje z różnych źródeł. Najpopularniejszym urządzeniem wejściowym jest klawiatura, ale urządzenie wskazujące (mysz lub trackball) jest równie ważne w dzisiejszym interfejsie GUI. Inne urządzenia wejściowe to kamery wideo, skanery, mikrofony, aparaty cyfrowe, napędy CD-ROM i polecenia głosowe, które obsługują komputer.
Urządzenia wyjściowe Monitor komputera to urządzenie wyjściowe, które szybko się zmienia. Przez kilka dekad ekrany komputerów wyświetlały tylko litery lub cyfry na zielonym lub bursztynowym ekranie. Gdy komputery zaczęły używać interfejsów graficznych, urządzenie wyświetlające zyskało na znaczeniu. Sukces komputera Macintosh firmy Apple z graficznym interfejsem użytkownika spowodował, że Microsoft wypuścił swój interfejs graficzny, zwany systemem operacyjnym Windows. Dlatego wszystkie obecne systemy operacyjne używają interfejsu graficznego i koloru zarówno do drukowania, jak i obrazów. Standardowym monitorem przez wiele lat była lampa elektronopromieniowa (CRT). Monitory CRT są nadal bardzo powszechne i są w stanie wyświetlać wysokiej jakości obrazy. Są jednak z natury duże i stosunkowo ciężkie. Komputery przenośne stały się możliwe dopiero wtedy, gdy pojawiły się mniejsze i lżejsze jednostki wyświetlające.
Obecne komputery przenośne lub laptopy używają paneli LCD (wyświetlacze ciekłokrystaliczne), które są płaskie. Panele LCD są teraz używane również w monitorach stacjonarnych. Jednostki LCD kosztują około trzy razy więcej niż porównywalne jednostki CRT, ale zajmują znacznie mniej miejsca i mają bardzo jasny obraz. Projektory komputerowe są powszechnie używane do wyświetlania danych lub informacji na dużym ekranie. Ta konfiguracja może być używana do demonstrowania programów, zapewniania wizualizacji do szkoleń lub pokazywania stron internetowych dużym grupom osób. Wielu biznesmenów podróżuje zarówno z komputerem przenośnym, jak i projektorem komputerowym, aby wizualnie wyświetlać informacje do szkoleń lub w celu pomocy w sprzedaży. GUI i ogólna popularność komputerów spowodowały znaczące zmiany w sprzęcie dostępnym do drukowania. Najwcześniejsze drukarki były zasadniczo automatycznymi maszynami do pisania i miały niewielką elastyczność. Obecnie dostępna jest szeroka gama drukarek, które są w stanie wyświetlać wydruki o jakości niemal profesjonalnej. Drukarki laserowe, które po raz pierwszy pojawiły się na początku lat 80., miały wrodzoną przewagę nad wcześniejszymi drukarkami komputerowymi; mianowicie wiązka lasera mogła umieszczać maleńkie kropki atramentu w dowolnym miejscu na stronie. W praktyce oznacza to, że drukarki laserowe mogą drukować czcionki dowolnego rozmiaru lub kroju pisma. Ponadto mogą drukować tekst w dowolnym kierunku, a także drukować obrazy. Obecne drukarki laserowe drukują z bardzo wyraźną rozdzielczością 1200 punktów na cal kwadratowy i są uważane za bardzo niezawodne. Dostępne są również kolorowe drukarki laserowe, chociaż są one znacznie wolniejsze i droższe niż drukarki czarno-białe. Drukarki atramentowe zasadniczo rozpylają atrament na papier. Zazwyczaj są bardzo ciche, są stosunkowo niedrogie i mają wysokiej jakości wydruk. Ponadto wszystkie najnowsze drukarki atramentowe oferują stosunkowo wysokiej jakości druk kolorowy. Zarówno zwiększone wykorzystanie Internetu do pobierania kolorowych obrazów, jak i powszechność aparatów cyfrowych znacznie zwiększyły popularność kolorowych drukarek atramentowych.
Urządzenia połączeniowe Częściowo ze względu na popularność Internetu coraz więcej komputerów wszelkiego rodzaju ma pewne środki łączenia się z innymi komputerami. W przypadku komputerów stacjonarnych w szkołach i firmach często używa się karty sieciowej (NIC). Komputery przenośne i domowe jednostki stacjonarne zazwyczaj używają modemu jako urządzenia połączeniowego. Modemy łączą komputer osobisty lub przenośny z sieciami dial-up za pomocą zwykłej linii telefonicznej. Ta łączność była dobrodziejstwem dla telepracy i zmieniła sposób wykonywania pracy w organizacjach. Modemy i karty NIC mogą służyć zarówno jako urządzenia wejściowe, jak i wyjściowe, w zależności od tego, czy komputer odbiera, czy wysyła informacje.
Karty dźwiękowe i głośniki Obecnie każdy komputer multimedialny zawiera urządzenie do odtwarzania dźwięku. Zazwyczaj oznacza to, że komputery mają kartę dźwiękową, która zawiera mini-wzmacniacz i łączy się z głośnikami. Dźwięki mogą również pochodzić z programów, z Internetu i od uczestników telekonferencji na komputerach stacjonarnych. Karta dźwiękowa może również pełnić funkcję urządzenia wejściowego, gdy wykorzystuje mikrofon.
Urządzenia pamięci masowej Liczba i rozmiar urządzeń pamięci masowej rośnie. Dyskietki są przenośne, ale mogą przechowywać tylko stosunkowo niewielką ilość informacji w porównaniu do najnowszych jednostek pamięci masowej, dysków Zip, które są również przenośne i małe. Dysk Zip ma około stu razy większą pojemność niż dyskietka. Dyski twarde to wewnętrzne urządzenia pamięci masowej, które przechowują system operacyjny komputera, oprogramowanie aplikacji i inne pliki.
SPOJRZENIE W PRZYSZŁOŚĆ
Komputery stały się krytycznym elementem miejsca pracy, domu i szkoły. Gdy patrzymy w przyszłość, pojawiają się pewne trendy oparte na ostatnich kilku dekadach rozwoju sprzętu. Jest wysoce prawdopodobne, że sprzęt komputerowy stanie się jeszcze mniejszy, lżejszy, bardziej przenośny i tańszy. Klawiatury mogą nawet stać się przestarzałe, ponieważ sprzęt do aktywacji głosowej stanie się bardziej wyrafinowany. Jest również prawdopodobne, że będzie większy stopień łączności w obrębie i między systemami na całym świecie, a także między domem a pracą. W szkołach podstawowych i średnich coraz większy nacisk kładzie się na wykorzystanie technologii w celu uzyskania dostępu do informacji i zmiany sposobu uczenia się uczniów. Zobaczymy nowe pokolenia uczniów wchodzących na rynek pracy z zaskakująco zaawansowanymi umiejętnościami komputerowymi i być może mniejszym strachem przed nowym sprzętem i zmianami w ogóle. Przewidywana przyszłość niesie obietnicę coraz większej integracji pracy i domu za pomocą komputerów.
Świat ma długą i bogatą historię międzynarodowego handlu między narodami, której początki sięgają wczesnoasyryjskiej, babilońskiej, egipskiej i fenickiej cywilizacji. Te i inne wczesne cywilizacje uznawały, że handel może być bezpośrednio powiązany z poprawą jakości życia obywateli wszystkich partnerów. Obecnie praktyka handlu między narodami rozwija się w zawrotnym tempie. Nie ma chyba osoby na świecie, na którą nie wpłynąłby w jakiś sposób rosnący handel między narodami.
DLACZEGO HANDEL MIĘDZYNARODOWY?
Jednym z najbardziej logicznych pytań jest to, dlaczego współczesne kraje handlują między sobą? Istnieje wiele powodów, dla których kraje angażują się w handel międzynarodowy. Niektóre kraje borykają się z niedoborem kluczowych surowców, takich jak drewno czy ropa naftowa. Aby zrekompensować te niedobory, kraje muszą angażować się w handel międzynarodowy, aby uzyskać zasoby niezbędne do produkcji towarów i/lub usług pożądanych przez ich obywateli. Oprócz handlu surowcami, narody wymieniają się również szeroką gamą przetworzonej żywności i produktów gotowych. Każdy kraj ma swoje własne specjalizacje, oparte na gospodarce i umiejętnościach obywateli. Trzy powszechne klasyfikacje specjalizacji to kapitał, praca i ziemia. Produkty kapitałochłonne, takie jak samochody osobowe i ciężarowe, ciężki sprzęt budowlany i maszyny przemysłowe, są wytwarzane przez kraje o wysoko rozwiniętej bazie przemysłowej. Japonia jest przykładem wysoko rozwiniętego kraju uprzemysłowionego, który produkuje duże ilości wysokiej jakości samochodów na eksport na cały świat. Innym powodem, dla którego Japonia dostosowała się do produkcji produktów kapitałochłonnych, jest jej wyspiarskie położenie; jest mało ziemi dostępnej pod produkcję produktów wymagających dużych nakładów ziemi. Produkty pracochłonne, takie jak odzież, obuwie czy inne dobra konsumpcyjne, są wytwarzane w krajach o stosunkowo niskich kosztach pracy i stosunkowo nowoczesnych zakładach produkcyjnych. Chiny, Indonezja i Filipiny to przykłady krajów produkujących wiele produktów pracochłonnych. Produkty wymagające dużych obszarów ziemi, takie jak hodowla bydła i uprawa pszenicy, są przykładami produktów wymagających dużych nakładów ziemi. Kraje, które nie posiadają dużych obszarów ziemi, zazwyczaj kupują produkty wymagające dużych nakładów rolnych od krajów, które posiadają ogromne połacie odpowiednich gruntów. Stany Zjednoczone, na przykład, są jednym z czołowych eksporterów pszenicy. Połączenie zaawansowanej technologii rolniczej, wykwalifikowanych rolników i rozległych obszarów odpowiednich gruntów rolnych na Środkowym Zachodzie i Wielkich Równinach umożliwia masową produkcję pszenicy. Z czasem siła robocza w danym kraju ulegnie zmianie, a tym samym towary i usługi, które dany kraj wytwarza i eksportuje, ulegną zmianie. Kraje, które szkolą swoich pracowników do przyszłych ról, mogą zminimalizować trudności związane z przejściem na nowy, dominujący rynek. Stany Zjednoczone, na przykład, były dominującym światowym producentem od końca II wojny światowej do początku lat 70. XX wieku. Jednak od lat 70. XX wieku inne kraje zaczęły produkować produkty gotowe taniej i wydajniej niż Stany Zjednoczone, co spowodowało znaczny spadek produkcji i eksportu w USA. Jednak szybki rozwój technologii komputerowej zaczął stanowić główny towar eksportowy dla Stanów Zjednoczonych. W praktyce Stany Zjednoczone powoli przekształcają się z gospodarki opartej na produkcji w nową gospodarkę ery informacyjnej, która opiera się na eksporcie najnowocześniejszych technologii, w miarę jak mnożą się firmy zajmujące się oprogramowaniem i komputerami.
OTOCZENIE POLITYCZNE
Każdy kraj różni się pod względem handlu międzynarodowego i przenoszenia zagranicznych zakładów na rodzimy grunt. Niektóre kraje otwarcie zabiegają o zagraniczne firmy i zachęcają je do inwestowania w swoim kraju, oferując obniżone podatki lub inne zachęty inwestycyjne. Inne kraje nakładają surowe przepisy, które mogą skłonić duże firmy do opuszczenia kraju i otwarcia zakładu w kraju, który zapewnia korzystniejsze warunki działalności. Decydując się na prowadzenie działalności w innym kraju, firma powinna również wziąć pod uwagę stabilność polityczną rządu kraju przyjmującego. Niestabilne przywództwo może stwarzać poważne problemy w odzyskiwaniu zysków w przypadku upadku rządu kraju przyjmującego i/lub zmiany jego polityki wobec handlu zagranicznego i inwestycji. Niestabilność polityczna jest często spowodowana trudną sytuacją gospodarczą, która prowadzi do niepokojów społecznych. Kolejnym kluczowym aspektem handlu międzynarodowego jest płacenie za produkt w obcej walucie. Ta praktyka może stwarzać potencjalne problemy dla firmy, ponieważ każda waluta podlega wahaniom cen. Firma może stracić pieniądze, jeśli wartość obcej waluty spadnie, zanim będzie można ją wymienić na pożądaną walutę. Innym problemem związanym z walutą jest to, że niektóre kraje nie dysponują niezbędną gotówką. Zamiast tego angażują się w handel wymienny, który polega na bezpośredniej lub pośredniej wymianie towarów na inne towary, a nie na gotówkę. Handel wymienny opiera się na tych samych zasadach co barter, praktyka sięgająca czasów prehistorycznych. Firma samochodowa może sprzedawać nowe samochody rządowi obcego państwa w zamian za wysokiej jakości stal, której zakup na wolnym rynku byłby droższy. Firma może następnie wykorzystać tę stal do produkcji nowych samochodów na sprzedaż. W bardziej skrajnym przypadku niektóre kraje nie chcą angażować się w wolny handel z innymi państwami, co jest wyborem znanym jako samowystarczalność. Istnieje wiele powodów takiego wyboru, ale najważniejszym z nich jest istnienie silnych przekonań politycznych. Na przykład były Związek Radziecki i jego komunistyczni sojusznicy handlowali wyłącznie między sobą, ponieważ Związek Radziecki obawiał się, że kraje zachodnie będą próbowały kontrolować ich rządy poprzez handel. Samowystarczalność pozwoliła Związkowi Radzieckiemu i jego sojusznikom uniknąć takiej możliwości. Jednak te dobrowolnie narzucone ograniczenia handlowe spowodowały niedobór produktów, których nie dało się wyprodukować w tej grupie, co sprawiło, że ogólna jakość życia w bloku sowieckim była znacznie niższa niż na Zachodzie, ponieważ popyt konsumpcyjny nie mógł zostać zaspokojony. Po upadku muru berlińskiego handel z Zachodem został wznowiony, a niedobór produktów został zmniejszony lub wyeliminowany.
OTOCZENIE GOSPODARCZE
Istotnym czynnikiem wpływającym na handel międzynarodowy są podatki. Spośród różnych podatków, które można nałożyć na towary importowane, najpowszechniejszym jest cło, które jest ogólnie definiowane jako podatek akcyzowy nakładany na towary importowane. Kraj może mieć kilka powodów, dla których nałożył cło. Na przykład cło dochodowe może być nałożone na produkt importowany, który jest również produkowany w kraju. Głównym powodem tego rodzaju cła jest generowanie dochodów, które mogą być później wykorzystane przez rząd na różne cele. Cło to jest zazwyczaj ustalane na niskim poziomie i zazwyczaj nie jest uważane za zagrożenie dla handlu międzynarodowego. Gdy krajowi producenci w danej branży znajdują się w niekorzystnej sytuacji w stosunku do importu, rząd może nałożyć tak zwane cło ochronne. Ten rodzaj cła ma na celu podniesienie cen produktów zagranicznych w porównaniu z produktami krajowymi, a tym samym ochronę krajowych firm. Cło ochronne cieszy się zazwyczaj dużą popularnością wśród dotkniętych nim krajowych firm i ich pracowników, ponieważ to oni odnoszą z niego największe korzyści. W odwecie kraj, którego dotyczy cło ochronne, często wprowadza własne cło na produkt pochodzący z kraju, który je pierwotnie wprowadził. Na przykład w 1930 roku Kongres Stanów Zjednoczonych uchwalił ustawę taryfową Smoot-Hawley, która umożliwiła nakładanie ceł ochronnych na import. Stany Zjednoczone nałożyły to cło ochronne na szeroką gamę produktów, próbując w ten sposób chronić krajowych producentów przed zagraniczną konkurencją. Ustawa ta cieszyła się dużą popularnością w Stanach Zjednoczonych, ponieważ Wielki Kryzys dopiero się rozpoczął, a cło postrzegano jako pomoc dla amerykańskich pracowników. Cło wywołało jednak natychmiastowy odwet ze strony innych krajów, które natychmiast nałożyły własne cła ochronne na produkty amerykańskie. W wyniku tych ceł ochronnych handel światowy został poważnie ograniczony dla niemal wszystkich krajów, co spowodowało spadek bogactwa każdego z nich i wzrost bezrobocia w większości krajów. Zdając sobie sprawę, że cła z 1930 roku były błędem, Kongres podjął działania naprawcze, uchwalając ustawę o wzajemnych umowach handlowych z 1934 roku, która upoważniła prezydenta do obniżenia ceł o 50 procent na towary z każdego innego kraju, który zgodziłby się na podobne obniżki ceł. Celem było promowanie większego handlu międzynarodowego i pomoc w nawiązaniu ściślejszej współpracy między krajami eksportującymi. Inną formą bariery handlowej, którą kraj może zastosować w celu ochrony krajowych firm, jest kontyngent importowy, który ściśle ogranicza ilość danego produktu, jaką dany kraj może eksportować do kraju stosującego kontyngent. Na przykład Stany Zjednoczone zagroziły ograniczeniem liczby samochodów importowanych z Japonii. Japonia zgodziła się jednak na dobrowolne kwoty eksportowe, formalnie znane jako "dobrowolne ograniczenia eksportowe", aby uniknąć narzuconych przez USA kwot importowych. Siła kwot importowych osłabła, ponieważ zagraniczni producenci zaczęli budować zakłady w krajach, do których wcześniej eksportowali, aby uniknąć takich regulacji. Rząd może również stosować bariery pozataryfowe w celu ochrony krajowych firm. Bariery pozataryfowe zazwyczaj odnoszą się do rządowych wymogów dotyczących licencji, zezwoleń lub znacznej ilości dokumentów, aby umożliwić import do danego kraju. Ta taktyka często podnosi cenę importowanego produktu, spowalnia dostawy i wywołuje frustrację w kraju eksportującym. Ostatecznym celem jest to, aby wiele zagranicznych firm nie zawracało sobie głowy eksportem swoich produktów na te rynki z powodu dodatkowych kosztów i uciążliwości. Japonia i kilka krajów europejskich często stosowało tę strategię, aby ograniczyć liczbę importowanych produktów.
ŚRODOWISKO KULTUROWE
Zanim przedsiębiorstwo rozpocznie eksport produktów do innych krajów, musi najpierw zbadać normy, tabu i wartości tych krajów. Informacje te mogą mieć kluczowe znaczenie dla pomyślnego wprowadzenia produktu na rynek danego kraju i wpłyną na sposób jego sprzedaży i/lub marketingu. Takie informacje mogą zapobiec błędom kulturowym, takim jak ten, którego General Motors dopuścił się, próbując sprzedać swojego Chevroleta Nova w krajach hiszpańskojęzycznych. Nova po hiszpańsku oznacza "nie jedzie" - a niewiele osób kupiłoby samochód o nazwie "nie jedzie". Ten błąd marketingowy - wynikający po prostu z nieznajomości języka hiszpańskiego - kosztował General Motors miliony w początkowej sprzedaży - a także przysporzył im sporo kłopotów. Profesjonaliści biznesowi muszą również znać zagraniczne zwyczaje dotyczące standardowych praktyk biznesowych. Na przykład, osoby z niektórych krajów lubią siedzieć lub stać bardzo blisko siebie podczas prowadzenia interesów. Z kolei osoby z innych krajów chcą zachować dystans przestrzenny między sobą a osobami, z którymi prowadzą interesy. Dlatego przed wyjazdem za granicę przedsiębiorcy muszą przejść szkolenie dotyczące prowadzenia działalności gospodarczej w kraju, do którego podróżują. Profesjonaliści biznesowi spotykają się również z inną praktyką, występującą w niektórych krajach - przekupstwem. Praktyka przekupstwa jest powszechna w wielu krajach i uważana za normalną praktykę biznesową. Jeśli łapówka nie zostanie wręczona przedsiębiorcy z kraju, w którym przekupstwo jest spodziewane, mało prawdopodobne jest zawarcie transakcji. Przepisy prawa w niektórych krajach zabraniają przedsiębiorcom płacenia lub przyjmowania łapówek. W związku z tym poruszanie się w tym gąszczu prawnym i kulturowym musi być bardzo ostrożne, aby zachować pełną zgodność z prawem.
ŚRODOWISKO FIZYCZNE
Inne czynniki wpływające na międzynarodową działalność handlową są związane ze środowiskiem fizycznym. Naturalne ukształtowanie terenu, takie jak góry i rzeki, oraz konstrukcje stworzone przez człowieka, takie jak mosty i drogi, mogą mieć wpływ na międzynarodową działalność handlową. Na przykład, duża liczba potencjalnych klientów może mieszkać w kraju, w którym naturalne bariery fizyczne, takie jak góry i rzeki, sprawiają, że wprowadzenie produktu na rynek jest praktycznie niemożliwe.
ŚWIATOWE ORGANIZACJE HANDLOWE I POROZUMIENIA
Po II wojnie światowej wiodące państwa świata dążyły do utworzenia stałej organizacji, która wspierałaby handel światowy. Organizacja taka powstała w 1947 roku, kiedy przedstawiciele Stanów Zjednoczonych i dwudziestu trzech innych państw podpisali dokument ustanawiający Układ Ogólny w sprawie Taryf Celnych i Handlu (GATT), który obecnie zrzesza ponad sto państw jako sygnatariuszy. Potrójny cel GATT to: (1) wspieranie równego, niedyskryminacyjnego traktowania wszystkich państw członkowskich; (2) promowanie redukcji taryf celnych poprzez negocjacje wielostronne; oraz (3) wspieranie zniesienia kontyngentów importowych. Państwa członkowskie GATT spotykają się okresowo, aby analizować postępy w realizacji ustalonych celów i wyznaczać nowe cele, które państwa członkowskie chcą osiągnąć. Cele i zadania GATT różnią się i zmieniają w czasie, w miarę rozwoju kwestii handlowych w zależności od sytuacji gospodarczej w kraju i na świecie. Podobnie, przedstawiciele Belgii, Danii, Francji, Niemiec, Grecji, Irlandii, Włoch, Luksemburga, Holandii, Portugalii, Hiszpanii i Wielkiej Brytanii połączyli siły, tworząc w 1958 roku Europejską Wspólnotę Gospodarczą (EWG) - czasami nazywaną Wspólnym Rynkiem. Celem EWG było stworzenie równych i sprawiedliwych taryf dla wszystkich krajów członkowskich, aby handel w Europie mógł się rozwijać. EWG jest powszechnie uznawana za udaną. Stany Zjednoczone i Kanada podpisały w 1989 roku amerykańsko-kanadyjską umowę o wolnym handlu, która przewidywała zniesienie wszystkich barier handlowych między tymi dwoma krajami - takich jak cła, kontyngenty lub inne ograniczenia handlowe - w ciągu dziesięciu lat. Akt ten przyczynił się do dalszego rozwoju handlu między tymi dwoma krajami, wzmacniając tym samym i tak już silne relacje handlowe. Stany Zjednoczone, Kanada i Meksyk podpisały w 1994 roku Północnoamerykańską umowę o wolnym handlu (NAFTA) w celu utworzenia strefy wolnego handlu między tymi trzema krajami. Przywódcy tych trzech krajów zdali sobie sprawę, że duża północnoamerykańska strefa wolnego handlu mogłaby skutecznie konkurować z EWG i innymi blokami handlowymi, które mogłyby powstać w przyszłości. Ten czynnik konkurencyjny był siłą napędową podpisania umowy przez państwa, z których każde wierzyło, że w dłuższej perspektywie wszystkie trzy odniosą z niej korzyści. Oprócz odczuwania wpływu umów handlowych i organizacji handlowych jako takich, na handel międzynarodowy wpływa w sposób bardziej pośredni stabilność finansowa i ogólny dobrobyt gospodarczy wszystkich krajów w naszym coraz bardziej wzajemnie powiązanym świecie. Zatem dwie inne organizacje międzynarodowe ostatecznie wpływają na kondycję handlu światowego. Aby jeszcze bardziej promować handel między państwami, państwa alianckie z czasów II wojny światowej spotkały się w 1944 roku w Bretton Woods w stanie New Hampshire, aby wspólnie ustalić powojenną globalną politykę finansową i tym samym uniknąć przyszłych kryzysów finansowych. W wyniku tej konferencji powstał Międzynarodowy Fundusz Walutowy (MFW), którego misją jest udzielanie pożyczek krajom znajdującym się w tarapatach finansowych. MFW dyktuje warunki pożyczek, które mogą obejmować redukcję subsydiów krajowych, prywatyzację sektora publicznego i moderowanie polityki handlowej. Aby sfinansować te pożyczki, członkowie MFW wnoszą coroczne składki, a wkład każdego kraju jest ustalany na podstawie jego wielkości, dochodu narodowego, liczby ludności i wolumenu handlu. Większe kraje udzielające pożyczek, takie jak Wielka Brytania i Stany Zjednoczone, mają większy wpływ na to, które kraje otrzymają pożyczki i na jakich warunkach. Bank Światowy, zrzeszający około 157 członków, to kolejna organizacja międzynarodowa, do której Stany Zjednoczone wnoszą znaczący wkład. Misją Banku Światowego jest pomoc krajom słabiej rozwiniętym w osiąganiu wzrostu gospodarczego poprzez poprawę handlu. Bank realizuje to poprzez udzielanie pożyczek i gwarantowanie lub ubezpieczanie pożyczek prywatnych krajom potrzebującym pomocy finansowej. Bank Światowy jest określany jako (1) pożyczkodawca ostatniej szansy, (2) podmiot ułatwiający realizację projektów rozwojowych w celu stymulowania napływu środków z prywatnych banków oraz (3) dostawca pomocy technicznej wspierającej długoterminowy wzrost gospodarczy.
PODSUMOWANIE
Świat ma długą historię handlu międzynarodowego. W rzeczywistości, handel między narodami ma swoje korzenie już w najwcześniejszych cywilizacjach. Działalność handlowa jest bezpośrednio związana z poprawą jakości życia obywateli państw zaangażowanych w handel międzynarodowy. Można śmiało powiedzieć, że niemal każdy człowiek na Ziemi odniósł korzyści z handlu międzynarodowego.
Handel międzystanowy to transport produktów i usług z jednego stanu do punktów geograficznych w innych stanach. Obejmuje on transport towarów i usług przez granice stanowe, co tworzy zależność od środków transportu i podporządkowuje proces przepisom stanowym dotyczącym transportu towarów. Transport odgrywa ważną rolę w określaniu rentowności działalności rolniczej i pozarolniczej na obszarach wiejskich. Gospodarstwa rolne, przedsiębiorstwa i przemysł na obszarach wiejskich polegają na usługach transportowych, aby osiągnąć niezbędne wyniki produkcyjne i dostarczać towary i produkty na rynek. Handel międzystanowy ma swoje korzenie w rolnictwie. Przez większość pierwszej dekady po wojnie secesyjnej rolnicy w siedmiu stanach środkowo-zachodnich odpowiadali za około połowę krajowej produkcji kukurydzy, pszenicy i owsa. Gospodarstwa w Illinois były liderami w produkcji każdego z tych zbóż; rolnicy z północy dostarczali duże ilości twardych odmian pszenicy, podczas gdy rolnicy z południa i wschodu produkowali większość kukurydzy. W oparciu o obecność obfitych zasobów paszy, producenci ci utworzyli miejsca tuczu zwierząt gospodarskich i produkcji produktów mięsnych. W tej sytuacji rolnicy poszukiwali usług transportowych, aby przewozić bydło i plony do głównych giełd produktów rolnych zlokalizowanych w innych stanach. Chicago i St. Louis stały się centrami skupu, ale nie były one miejscami ostatecznej konsumpcji. Do 1870 roku istniały już dobrze rozwinięte linie zaopatrzenia między stanami. Parowce i szkunery Wielkich Jezior zapewniały większość połączeń między Chicago a północnymi częściami regionu Wielkich Jezior, a cztery główne linie kolejowe zapewniały transport lądowy. Dwiema liniami kolejowymi o niezależnej i pełnej obsłudze były New York Central System i Pennsylvania System. W latach 1874-1919 uchwalono wiele ustaw, które nakładały regulacje ekonomiczne na dominujący środek handlu międzystanowego w Stanach Zjednoczonych: kolej. Jednak federalne przepisy transportowe nie były na tyle rygorystyczne, aby uzasadnić utworzenie departamentu na szczeblu gabinetu wyłącznie do spraw handlu międzystanowego. Warunki gospodarcze w latach 1874-1919 były zmienne. Kryzys w rolnictwie był rozległy w latach 70. i 80. XIX wieku i stanowił czynnik, który ostatecznie doprowadził do regulacji ekonomicznych kolei międzystanowych w 1887 roku. Co więcej, w 1893 roku nastąpił kryzys międzynarodowy, który wpędził siedemdziesiąt cztery przedsiębiorstwa kolejowe w kłopoty finansowe. W latach 1901-1919 społeczeństwo amerykańskie przeżywało względny dobrobyt; w tym okresie zbudowano 145 000 mil torów do przewozu towarów między stanami. W latach 1874-1919 mnożyły się agencje wykonawcze i ustawodawcze związane z funkcjami transportowymi; w tym samym okresie transport drogowy zaczął zyskiwać na znaczeniu. Finansowanie i planowanie rozwoju autostrad w granicach stanów leżało przede wszystkim w gestii poszczególnych stanów. Jednak Biuro Dróg Publicznych zaczęło odgrywać znaczącą rolę. Ponadto, przemysł lotniczy miał swoje początki na początku XX wieku. Międzystanowa Komisja Handlu (ICC), niezależna agencja rządu USA, utworzona w 1887 roku, odpowiada za regulację ekonomiczną usług określonych przewoźników zajmujących się transportem międzystanowym. Była to pierwsza agencja regulacyjna utworzona w ramach rządu federalnego, a jej powstanie było odpowiedzią na rosnące oburzenie opinii publicznej wobec nieuczciwych praktyk i nadużyć w sektorze kolejowym. Skuteczność ICC była jednak ograniczona przez brak przyznania jej przez Kongres uprawnień wykonawczych, wąską interpretację jej uprawnień przez Sąd Najwyższy oraz niejasny język ustawy ustanawiającej. Począwszy od ustawy Hepburna z 1906 roku, domena ICC stopniowo rozszerzała się poza koleje, obejmując wszystkich przewoźników publicznych z wyjątkiem samolotów, do 1940 roku. Powierzono jej również zadanie konsolidacji systemów kolejowych i rozwiązywania sporów pracowniczych w transporcie międzystanowym. W latach 50. i 60. XX wieku ICC egzekwowała orzeczenia Sądu Najwyższego Stanów Zjednoczonych, które nakazywały desegregację terminali pasażerskich. Część I ustawy o handlu międzystanowym z 1935 roku łączyła szereg ustaw uchwalonych pod koniec XIX i na początku XX wieku. Pierwsza z tych ustaw nakładała na przewoźników kolejowych obowiązek publikowania swoich taryf i zabraniała zmian stawek bez należytego powiadomienia opinii publicznej. Kolejne ustawy zaostrzyły regulacje i rozszerzyły jurysdykcję ICC. Część II ustawy rozszerzyła uprawnienia federalne na przewoźników drogowych prowadzących handel międzystanowy. Część III nadała rządowi federalnemu uprawnienia do regulowania działalności przewoźników publicznych działających w handlu międzystanowym na wodach przybrzeżnych, międzybrzeżnych i śródlądowych Stanów Zjednoczonych. Część IV zawierała przepisy regulujące działalność operatorów przewozów towarowych. Następnie jurysdykcja ICC rozszerzyła się o transport ciężarowy, linie autobusowe, przewoźników wodnych, spedytorów, rurociągi (te, które nie podlegały jeszcze regulacjom innych agencji) oraz agencje ekspresowych dostaw. ICC kontrolowała stawki i egzekwowała federalne i lokalne przepisy zakazujące dyskryminacji w tych obszarach. Funkcje bezpieczeństwa w ramach jej jurysdykcji zostały przekazane Departamentowi Transportu w 1967 roku, a deregulacja pod koniec lat 70. i 80. XX wieku dodatkowo ograniczyła rolę ICC. Większość kontroli ICC nad międzystanowym transportem ciężarowym została zniesiona w 1994 roku, a agencja została rozwiązana pod koniec 1995 roku. Wiele z jej pozostałych funkcji zostało przekazanych Krajowej Radzie Transportu Powierzchniowego (National Surface Transportation Board). Handel międzystanowy jest obecnie nadzorowany przez kilka agencji federalnych. Rada Lotnictwa Cywilnego (Civil Aeronautics Board) została powołana na mocy Ustawy o Lotnictwie Cywilnym z 1938 roku w celu nadzorowania branży lotniczej. Ustawa ta dotyczyła zdolności branży lotniczej do świadczenia efektywnych usług po rozsądnych cenach, bez niesprawiedliwej dyskryminacji, nieuzasadnionych preferencji, korzyści ani nieuczciwych lub destrukcyjnych praktyk konkurencyjnych. Czterdzieści lat później prezydent Jimmy Carter podpisał Ustawę o Deregulacji Linii Lotniczych z 1978 roku, która miała na celu stopniowe zniesienie Rady Lotnictwa Cywilnego i umożliwienie liniom lotniczym samodzielnego ustalania cen i tras. Uważano, że brak konkurencji sprawił, że branża przestała reagować na potrzeby konsumentów. W rezultacie branża została zderegulowana, co doprowadziło do wojny cenowej. Istnieje wiele innych federalnych agencji regulacyjnych i przepisów regulujących handel międzystanowy. Federalna Komisja Handlu (FTC) została utworzona w 1914 roku, z uprawnieniami dochodzeniowymi, które mają być wykorzystywane w celu zapobiegania nieuczciwym metodom konkurencji. FTC egzekwuje przepisy i wytyczne dotyczące praktyk biznesowych oraz podejmuje działania w celu zwalczania fałszywej i wprowadzającej w błąd reklamy, cen, opakowań i etykiet. Pomaga firmom w przestrzeganiu przepisów stanowych i federalnych oraz co roku ocenia nowe metody biznesowe. Organizuje konferencje poświęcone handlowi elektronicznemu, który jest najnowszą formą handlu międzystanowego. Gdy potrzebne są ogólne wytyczne, aby pomóc firmom zaangażowanym w handel międzystanowy, FTC zachęca firmy z tej branży do dobrowolnego ustanowienia zestawu praktyk handlowych. Ustawa Claytona, uchwalona w tym samym roku, w którym powstała FTC (1914), zakazuje określonych praktyk, takich jak dyskryminacja cenowa, wyłączne umowy dealerskie i nabywanie akcji, których skutki mogą znacząco ograniczyć konkurencję lub prowadzić do powstania monopolu. Ponadto Federalna Komisja Łączności (FCC) stała się kluczowym elementem regulacyjnym w rozwoju handlu elektronicznego. FCC reguluje komunikację przewodową, radiową i telewizyjną w handlu międzystanowym i zagranicznym. Agencja ta podlega szybkim zmianom w wyniku potrzeby regulacji handlu elektronicznego.
OBECNE ŚRODOWISKO HANDLU MIĘDZYSTANOWEGO
Obecne środowisko transportowe znacznie różni się od tego z poprzednich dekad. Przejście z wiejskiej na miejską bazę gospodarczą, zmiany polityczne oraz innowacje technologiczne i organizacyjne zmieniły sposób dystrybucji produktów i usług w Stanach Zjednoczonych. Obecnie mniej niż 10% mieszkańców obszarów pozametropolitalnych jest zatrudnionych w rolnictwie, leśnictwie, rybołówstwie lub górnictwie. Współczesne gospodarstwa rolne stają się większe i bardziej kapitałochłonne. Duże ciągniki siodłowe szybko zastępują mniejsze pojazdy w dostawach środków produkcji do gospodarstw rolnych i produktów na rynek. Zapotrzebowanie na handel międzystanowy poza rolnictwem gwałtownie wzrosło w ostatnim ćwierćwieczu XX wieku. Zatrudnienie w przemyśle na obszarach pozametropolitalnych rosło w tempie trzykrotnie wyższym niż w obszarach metropolitalnych. Około 20% mieszkańców obszarów pozametropolitalnych było zatrudnionych w firmach produkcyjnych na przełomie XX i XXI wieku. W wyniku tych zmian drastycznie zmieniła się również ilość i rodzaj ruchu międzystanowego. Większe i cięższe pojazdy poruszające się po tych drogach wymagają znacznych inwestycji w mosty i nawierzchnie dróg utwardzonych. Niedawne badanie Departamentu Transportu sugeruje, że ponad 50% długości dróg lokalnych w Stanach Zjednoczonych jest nieodpowiednia pod względem strukturalnym. Problem ten wynika z rodzaju i stanu nawierzchni, a nawet niedociągnięć w zakresie bezpieczeństwa, takich jak niewystarczająca szerokość pasów ruchu czy brak poboczy. Zwiększona odpowiedzialność finansowa samorządów lokalnych za budowę i utrzymanie systemu dróg wiejskich stanowi szczególny problem dla regionów wiejskich zależnych od handlu międzystanowego. Deregulacja transportu to kolejna istotna zmiana w polityce federalnej, która prawdopodobnie wpłynie na koszty i dostępność usług transportowych oraz infrastruktury niezbędnej do handlu międzystanowego. Nowemu, zderegulowanemu środowisku towarzyszyły innowacje technologiczne i organizacyjne. Na przykład fuzje kolejowe doprowadziły do ograniczenia usług na wielu trasach, co potencjalnie wpływa na względną konkurencyjność regionów jako lokalizacji dla biznesu lub przemysłu. Rozwój infrastruktury kolejowej i kontraktów kolejowych sprzyja konsolidacji i rozwojowi firm przetwórczych. Usprawnienia w transporcie, które przekładają się na niższe koszty operacyjne dla lokalnych przedsiębiorstw, pomagają społecznościom wiejskim w przyciąganiu nowych firm i przemysłu oraz wspierają ekspansję istniejących firm. Badania przedsiębiorstw konsekwentnie wskazują, że firmy priorytetowo traktują dostępność, koszty i jakość transportu przy wyborze lokalizacji. Dostępność transportu drogowego jest szczególnie ważna dla szerokiej gamy przedsiębiorstw wiejskich, które są uzależnione od możliwości dostarczania swoich produktów do innych stanów. Przewoźnicy towarowi są zależni od wiejskich systemów drogowych, które są finansowane z lokalnych wpływów podatkowych. Wspólne stanowe podatki i opłaty dla użytkowników dróg różnią się w zależności od stanu. Słabnąca gospodarka lokalna może poważnie ograniczyć zdolność samorządu lokalnego do pozyskiwania dochodów na modernizację systemu drogowego, a prawdopodobnym skutkiem tego jest cykliczny spadek handlu międzystanowego. Bez dodatkowych dochodów lokalne systemy drogowe będą się nadal pogarszać, co jeszcze bardziej zmniejszy atrakcyjność danego obszaru dla biznesu i przemysłu, a tym samym jeszcze bardziej zmniejszy bazę podatkową tego obszaru. Handel międzystanowy obejmuje zarówno transport usług, jak i towarów. Szczególnie ważny jest transport osób między stanami. Dawniej przewoźnicy byli częściowo chronieni przed konkurencją w zamian za wypełnianie zobowiązań z tytułu świadczenia usług publicznych. Zgodnie z tym porozumieniem przewoźnicy publiczni nie mogli swobodnie wybierać klientów ani likwidować części swoich usług bez zgody opinii publicznej. Obowiązek ten nakładał odpowiedzialność za straty i szkody na przewoźników międzystanowych, którzy odpowiadali za straty transportowe. Ponadto przewoźnicy publiczni musieli obsługiwać wszystkich klientów bez dyskryminacji i musieli poddawać swoje propozycje zmian stawek opłat weryfikacji przez organy regulacyjne w celu ustalenia, czy zmiany te są uzasadnione. W zamian za wypełnienie tych publicznych zobowiązań, przewoźnicy publiczni byli chronieni przed nową konkurencją. Gdy firma proponowała rozszerzenie usług na inny stan, istniejąca firma transportowa mogła argumentować, że obecnie obsługuje ruch w wystarczającym stopniu i mogła sprzeciwić się wejściu nowego przewoźnika międzystanowego. Często sprzeciw istniejących przewoźników uniemożliwiał wejście na rynek nowym przewoźnikom. Jednak na początku lat 80. Kongres uchwalił istotne przepisy zmieniające rolę rządu. Ostatnie zmiany w polityce zasadniczo zastąpiły system przewoźników publicznych systemem transakcji rynkowych, podobnym do tego, który obowiązuje w każdym innym przedsiębiorstwie prywatnym. Nowe podejście rynkowe pozwala spedytorom i przewoźnikom aktywnie negocjować usługi transportowe, zamiast akceptować jedną z kilku alternatyw oferowanych przez konsorcja przewoźników. Deregulacja zwiększyła efektywność ekonomiczną świadczenia usług transportowych dzięki nowej elastyczności przewoźników w dostosowywaniu się do popytu. Autostrady, linie kolejowe i lotnicze to arterie komunikacyjne, które umożliwiają kupującym i turystom podróżowanie między stanami. Z tego powodu transport pasażerski odgrywa kluczową rolę w rozwoju gospodarki obszarów wiejskich. Wiele gałęzi przemysłu wiejskiego przyciąga pracowników z okolicznych społeczności oddalonych nawet o 80 kilometrów. Dla tych gałęzi przemysłu międzystanowy system transportu jest kluczowym ogniwem zapewniającym im dostęp do siły roboczej. Polityka i inwestycje obniżające koszty handlu międzystanowego w regionach wiejskich stanowią potencjalny katalizator rozwoju gospodarczego obszarów wiejskich. Pilna potrzeba znalezienia praktycznych rozwiązań problemów handlu międzystanowego doprowadziła do powstania nowych sposobów myślenia. W 1982 roku rząd USA przeznaczył 5 milionów dolarów na pomoc techniczną lokalnym agencjom w ramach Programu Pomocy Technicznej na Obszarach Wiejskich. Głównym systemem realizacji programu była sieć Centrów Transferu Technologii. W ramach programu Federalnej Administracji Dróg, Centra Transferu Technologii zostały utworzone w celu zapewnienia szkoleń i innych produktów transferu technologii lokalnym użytkownikom. Jednym z głównych celów programu jest pełnienie funkcji łącznika komunikacyjnego między różnymi źródłami nowych technologii a agencjami stanowymi i lokalnymi, które mogą stosować tę technologię w codziennej działalności. W 1983 roku istniało dziesięć Centrów Transferu Technologii. Obecnie w Stanach Zjednoczonych działa ich ponad pięćdziesiąt. Obecnie Federalna Komisja Łączności (FCC) wysunęła się na pierwszy plan ze względu na swoją odpowiedzialność za regulację handlu elektronicznego. W 2000 roku FCC zwróciła się o komentarze do dwóch aktów prawnych: aktu dotyczącego reformy opłat za dostęp (Access Charge Reform) oraz aktu dotyczącego całkowitego zniesienia taryf dla konkurencyjnych dostawców dostępu i konkurencyjnych operatorów lokalnej wymiany (CLEC), który zajmuje się podejściem regulacyjnym lub rynkowym, mającym zapewnić racjonalność stawek konkurencyjnych operatorów lokalnej wymiany (CLEC) za dostęp międzystanowy. Podczas tych obrad omawianych jest wiele propozycji, a FCC zaprasza wszystkie zainteresowane strony do komentowania, czy obowiązkowe zniesienie taryf dla międzystanowych stawek za usługi dostępu CLEC stanowiłoby rynkowy środek odstraszający przed nadmiernymi opłatami za zakończenie połączenia. Ponadto FTC sponsoruje warsztaty w całym kraju, których celem jest edukacja na temat funkcjonowania rynków i analiza scenariuszy antykonkurencyjnych. FTC będzie zaangażowana w kontrolę wirtualnej konkurencji na rynkach elektronicznych.
Firmy inwestują kapitał, aby uzyskać zwrot. Jest to jak chęć "zarobienia" pieniędzy przez osoby inwestujące w akcje i obligacje. Kwota pieniędzy "zarobionych" lub "straconych" jest mierzona jako stopa zwrotu z inwestycji. Podczas dokonywania inwestycji oczekiwana stopa zwrotu jest określana przez kwotę, czas i ryzykowność środków oczekiwanych z inwestycji.
STOPA ZWROTU
Kwota. Stopa zwrotu z inwestycji jest wyrażana jako procent. Na przykład, jeśli firma zainwestuje 1000 USD i spodziewa się odzyskać 1100 USD za rok, spodziewa się zarobić 10 procent ( (1100 1000)/1000). Jeśli firma spodziewa się 1200 USD (zamiast 1100 USD), spodziewa się zarobić 20 procent. Tak więc stopa zwrotu zależy przede wszystkim od kwoty pieniędzy oczekiwanej z inwestycji.
Czas. Tak jak zdobycie większej ilości pieniędzy daje wyższą stopę zwrotu, tak też wcześniejsze zdobycie pieniędzy daje wyższą stopę zwrotu. Jeśli firma zarabia 10% w ciągu sześciu miesięcy, to jest to wyższa stopa zwrotu niż 10% zarobione w ciągu roku. Tak więc stopa zwrotu z inwestycji zależy również od tego, kiedy firma spodziewa się odzyskać pieniądze.
Ryzyko. W przypadku większości inwestycji kapitałowych kwota pieniędzy i/lub czas, w którym firma spodziewa się je odzyskać, są niepewne. Jakie są szanse, że otrzyma dokładnie to, czego się spodziewa? Jakie są szanse, że otrzyma więcej lub mniej? Jakie są szanse, że otrzyma znacznie więcej lub znacznie mniej - lub nawet straci wszystkie zainwestowane pieniądze i nic nie odzyska? Ryzyko inwestycji zależy od tych szans, a z kolei sposób obliczania stopy zwrotu z inwestycji zależy od tego ryzyka. Tak więc trzecim ważnym wymiarem stopy zwrotu z inwestycji jest ryzyko związane z kwotą pieniędzy, którą firma spodziewa się odzyskać z inwestycji.
Wartość pieniądza w czasie. Kiedy firma ocenia inwestycję kapitałową, kwota pieniędzy oczekiwana z inwestycji jest korygowana o jej czas i ryzyko. Na przykład, załóżmy, że firma spodziewa się otrzymać 100 USD za rok. Gdyby miała te 100 USD teraz, mogłaby zainwestować pieniądze - na przykład zarobić odsetki od banku - i mieć więcej niż 100 USD w przyszłym roku. Gdyby pieniądze zarobiły 5 procent, firma miałaby 105 USD w przyszłym roku. Jeśli "odwrócimy" ten proces, 100 USD, które firma spodziewa się otrzymać w przyszłym roku, jest warte mniej niż 100 USD dzisiaj. Przy 5-procentowym oprocentowaniu, 100 USD w przyszłym roku jest warte tylko 95,24 USD (100 USD/1,05) dzisiaj. (Dzieje się tak, ponieważ gdyby firma miała teraz 95,24 USD i zarobiła 5 procent na tych pieniądzach, miałaby 100 USD w przyszłym roku.) Podobnie, jeśli istnieje ryzyko związane z oczekiwanymi pieniędzmi - firma spodziewa się 100 USD, ale mogłaby dostać więcej lub mniej - jej wartość dzisiaj jest mniejsza niż 95,24 USD. A im bardziej jest ryzykowna, tym niższa jest jej wartość dzisiaj. Zazwyczaj, aby dokonać "sprawiedliwych" porównań, wartość wszystkich kwot pieniędzy oczekiwanych z inwestycji kapitałowych jest przeliczana na to, co nazywa się wartościami bieżącymi. Stopa zwrotu używana do obliczenia wartości bieżącej inwestycji kapitałowej nazywana jest kosztem kapitału. Koszt kapitału to minimalna stopa zwrotu, jaką firma musi uzyskać, aby chcieć dokonać inwestycji. Jest to stopa zwrotu, jaką firma mogłaby uzyskać, gdyby zamiast dokonywać inwestycji kapitałowej, zainwestowała pieniądze w alternatywną, ale porównywalną inwestycję. Koszt kapitału dokładnie odzwierciedla ryzykowność pieniędzy oczekiwanych z inwestycji kapitałowej. Metody matematyczne stosowane do obliczania wartości bieżących nazywane są wartością pieniądza w czasie i są wyjaśnione bardziej szczegółowo w książkach w bibliografii. Wartość bieżąca netto (NPV). Wartość bieżąca netto (NPV) inwestycji kapitałowej to kwota wartości, jaką firma spodziewa się wytworzyć dzięki inwestycji. NPV równa się sumie wartości bieżących wszystkich pieniędzy oczekiwanych z inwestycji pomniejszonych o koszt inwestycji.
DOKONYWANIE INWESTYCJI KAPITAŁOWYCH
Proces inwestycji kapitałowych obejmuje następujące elementy:
1. Generowanie pomysłów na inwestycje kapitałowe
2. Klasyfikacja inwestycji kapitałowych
3. Ocenianie i wybieranie proponowanych inwestycji kapitałowych
Generowanie pomysłów Pierwszą i najważniejszą częścią procesu inwestycji kapitałowych jest generowanie nowych pomysłów. Pomysły na inwestycje kapitałowe mogą pojawić się w dowolnym miejscu w firmie. Często kierownicy zakładów są odpowiedzialni za identyfikację potencjalnych projektów, które umożliwią ich zakładom działanie na inną skalę lub na bardziej wydajnej podstawie. Na przykład kierownik zakładu może zasugerować dodanie 10 000 stóp kwadratowych powierzchni produkcyjnej do zakładu lub wymianę sprzętu na nowszą, bardziej wydajną maszynę. Pomysły na lepsze typy sprzętu, które mogą pomóc firmie działać wydajniej, mogą pochodzić od osób pracujących na hali produkcyjnej. Po odrzuceniu niepożądanych pomysłów kierownicy wysyłają te, które wydają się atrakcyjne, na poziom dywizji, wraz z dokumentacją pomocniczą. Kierownictwo dywizji nie tylko przegląda takie propozycje, ale także dodaje własne pomysły. Na przykład kierownictwo dywizji może zaproponować wprowadzenie nowej linii produktów. Alternatywnie, kierownictwo może chcieć połączyć dwa zakłady i wyeliminować ten mniej wydajny. Takie pomysły rzadziej pochodzą od kierowników zakładów! Ten proces oddolny powoduje, że pomysły przenikają w górę organizacji. Na każdym poziomie pomysły zgłaszane przez kierowników niższego szczebla są przesiewane, a atrakcyjne są przekazywane na następny poziom. Ponadto kierownicy na kolejnych wyższych szczeblach, którzy są w stanie spojrzeć szerzej na działalność firmy, dodają pomysły, które mogą nie być widoczne - lub pożądane - dla kierowników niższego szczebla. Jednocześnie w większości firm działa również proces odgórny. Planiści strategiczni będą generować pomysły dotyczące nowych biznesów, do których firma powinna wejść, innych firm, które mogłaby przejąć, oraz sposobów modyfikacji istniejących biznesów w celu osiągnięcia większej rentowności. Planowanie strategiczne jest kluczowym elementem procesu inwestycji kapitałowych. Procesy te uzupełniają się wzajemnie; proces odgórny generuje pomysły o szerszym, bardziej strategicznym charakterze, podczas gdy proces oddolny generuje pomysły o charakterze bardziej specyficznym dla projektu. Ponadto wiele firm ma grupę badawczo-rozwojową (R&D), albo w ramach działu produkcyjnego, albo jako oddzielny dział. Grupa R&D często dostarcza nowych pomysłów na produkty, które mogą być przesyłane do działu badań marketingowych.
?
Klasyfikacja inwestycji kapitałowych .Analiza kosztuje. Dlatego niektóre rodzaje inwestycji są poddawane jedynie pobieżnym kontrolom przed zatwierdzeniem, podczas gdy inne są poddawane szczegółowej analizie. Generalnie mniej kosztowne i bardziej rutynowe inwestycje są poddawane mniej szczegółowej ocenie. W rezultacie firmy zazwyczaj kategoryzują inwestycje i analizują je na poziomie uznanym za odpowiedni dla ich kategorii. Potencjalne inwestycje w każdej kategorii mogą mieć wiele wspólnego i można je analizować w podobny sposób. Przydatny zestaw klasyfikacji inwestycji to:
Projekty konserwacyjne
Projekty oszczędzania kosztów/zwiększania przychodów
Rozszerzanie zdolności produkcyjnych w obecnych firmach
Nowe produkty i nowe firmy
Projekty wymagane przez regulacje rządowe lub politykę firmy
Wydatki na konserwację: Na najbardziej podstawowym poziomie firma musi dokonać pewnych inwestycji, aby nadal być zdrowym, dochodowym biznesem. Wymiana zużytego lub uszkodzonego sprzętu jest konieczna, aby kontynuować działalność. Dlatego też głównymi pytaniami dotyczącymi takich inwestycji są: "Czy powinniśmy kontynuować tę działalność?", a jeśli tak, "Czy powinniśmy kontynuować ten sam proces produkcyjny?". Ponieważ odpowiedzi na te pytania brzmią tak często "tak", nie jest potrzebny skomplikowany proces podejmowania decyzji, a zazwyczaj takie decyzje są zatwierdzane jedynie po rutynowym przeglądzie. Oszczędności kosztów/zwiększenie przychodów: Projekty w tej klasie obejmują ulepszenia technologii produkcji w celu uzyskania oszczędności kosztów i kampanie marketingowe w celu osiągnięcia zwiększenia przychodów. Centralną kwestią jest zwiększenie różnicy między przychodami a kosztami; wynik musi być wystarczający, aby uzasadnić inwestycję. Rozszerzenie zdolności produkcyjnych w obecnych firmach: Decyzja o rozszerzeniu obecnej działalności jest z natury trudniejsza niż zatwierdzenie propozycji konserwacji lub oszczędności kosztów. Firmy muszą rozważyć ekonomikę rozbudowy lub dodawania nowych obiektów. Muszą również przygotować prognozy popytu, biorąc pod uwagę prawdopodobne strategie konkurentów. Konsultanci ds. marketingu mogą pomóc, ale ta klasa projektów ma naturalnie bardziej niepewne prognozy zwrotu niż projekty konserwacji lub wymiany. Nowe produkty i nowe przedsiębiorstwa: Projekty w tej kategorii, obejmujące działania badawczo-rozwojowe, należą do najtrudniejszych do oceny. Ich nowość i długie terminy realizacji sprawiają, że bardzo trudno jest dokładnie prognozować popyt na produkty. W wielu przypadkach projekt może być szczególnie interesujący, ponieważ dałby firmie możliwość wejścia na nowy rynek. Na przykład firma, która ma zastrzeżoną technologię, może wydać dodatkowe fundusze na badania i rozwój, próbując opracować nowe produkty oparte na tej technologii. Jeśli się powiedzie, te nowe produkty mogą utorować drogę do przyszłych dochodowych możliwości inwestycyjnych. Dostęp do takich możliwości stanowi cenne opcje dla firmy.
Spełnianie wymogów regulacyjnych i politycznych:
Przepisy rządowe i/lub polityki firmy dotyczące takich kwestii, jak kontrola zanieczyszczeń oraz czynniki związane ze zdrowiem lub bezpieczeństwem są postrzegane jako koszty. Często kluczową kwestią w takich projektach jest spełnianie standardów w najbardziej efektywny sposób - przy minimalnych kosztach.
Ocena propozycji Typowe etapy opracowywania i zatwierdzania propozycji inwestycji kapitałowej są następujące:
1. Zatwierdzenie funduszy na badania, które mogą skutkować pomysłem na produkt.
2. Zatwierdzenie funduszy na badania rynku, które mogą skutkować propozycją produktu.
3. Zatwierdzenie funduszy na rozwój produktu, który może skutkować użytecznym produktem.
4. Zatwierdzenie funduszy na zakład i/lub sprzęt do produkcji i sprzedaży nowego produktu.
Każdy etap obejmuje decyzję inwestycyjną na jednym lub kilku poziomach firmy. Na każdym etapie firma ponownie szacuje oczekiwaną wartość do stworzenia - NPV - w wyniku kontynuacji. Przy tego rodzaju sekwencyjnym przydzielaniu funduszy egzekwowany jest automatyczny przegląd postępów, umożliwiający wcześniejsze anulowanie nieudanych projektów. Na każdym etapie istnieją opcje porzucenia, odroczenia, zmiany lub kontynuacji. Proponowane wydatki, które są większe niż określone limity ustalone przez firmę, zazwyczaj wymagają pisemnej propozycji od inicjatora. Zazwyczaj takie limity są wyższe w mniejszych prywatnych firmach, które mają tendencję do posiadania stosunkowo nieformalnych struktur organizacyjnych. Większość firm korzysta ze standardowych formularzy, które są często uzupełniane pisemnymi memorandami w przypadku większych, bardziej złożonych projektów. Mogą również istnieć konsultacje lub inne badania przygotowane przez zewnętrznych ekspertów; na przykład prognozy ekonomiczne od konsultantów ekonomicznych. W przypadku udanej firmy projekt konserwacyjny może wymagać tylko ograniczonych informacji pomocniczych. Natomiast nowy produkt wymagałby obszernego gromadzenia informacji i analizy. Jednocześnie w ramach kategorii menedżerowie na każdym poziomie zwykle mają górne limity swoich uprawnień dotyczących zarówno wydatków na poszczególne aktywa, jak i całkowitych wydatków na okres budżetowania. W ten sposób większe projekty wymagają zatwierdzenia wyższego organu. Na przykład na najniższym poziomie kierownik działu może mieć uprawnienia do zatwierdzenia 50 000 USD całkowitych zakupów sprzętu na dany rok. Jednak ta sama osoba może musieć uzyskać konkretne zatwierdzenie od wyższego organu, aby wydać więcej niż 10 000 USD na dowolny pojedynczy element sprzętu. Kierownik zakładu może mieć limity autoryzacji wynoszące na przykład 500 000 USD rocznie i 100 000 USD na sztukę sprzętu. System autoryzacji, taki jak zilustrowano w poprzednim akapicie, wymaga bardziej obszernego przeglądu i większej liczby danych wejściowych, aby zatwierdzić większe wydatki. Hierarchiczna struktura przeglądu odzwierciedla oczywisty fakt, że błędna ocena większego projektu jest potencjalnie bardziej kosztowna niż błędna ocena mniejszego.
INWESTYCJE KAPITAŁOWE W INNE FIRMY
Czasami firmy inwestują kapitałowo w inne firmy. W teorii są to takie same inwestycje kapitałowe jak każda inna inwestycja kapitałowa. Obejmują one zarówno proste - takie jak zakup akcji innej firmy w ramach inwestycji "pasywnej" - jak i całkowite przejęcie (zakup) innej firmy lub połączenie się z inną firmą. W przypadku przejęcia lub fuzji szczegóły związane z takimi kwestiami jak podatki, "kultury korporacyjne", podział odpowiedzialności i logistyka, między innymi, mogą być niezwykle złożone. Firmy podają wiele różnych powodów przejęcia lub fuzji. W większości przypadków chcą osiągnąć wydajność operacyjną i/lub ekonomię skali. Na przykład w przypadku fuzji firmy mogą zaoszczędzić pieniądze na marketingu, produkcji i dostarczaniu swoich produktów, łącząc swoje operacje i eliminując duplikację. Połączenie może również umożliwić większą wydajność w koordynowaniu działań w ramach jednostek firm. Firma może rozwijać się taniej i szybciej poprzez przejęcie lub fuzję. Istnieją również inne możliwe powody, takie jak uzyskanie korzyści podatkowych i przejęcie nadwyżki gotówki. Istotą wszystkich możliwych powodów jest przekonanie, że fuzja lub przejęcie jest dobrą inwestycją kapitałową. Dlatego narzędzia analityczne i podstawowe zasady decyzyjne są takie same dla fuzji i przejęć, jak i dla innych inwestycji kapitałowych. Należy jednak zachować szczególną ostrożność przy stosowaniu tych narzędzi ze względu na ogromną wielkość i złożoność inwestycji. Oprócz podstawowych rozważań inwestycyjnych, mogą również istnieć ważne rozważania prawne związane z fuzją lub przejęciem. Należą do nich takie aspekty, jak zgodność z federalnym prawem antymonopolowym, stanowymi ustawami antyprzejęciowymi, przepisami dotyczącymi papierów wartościowych i statutami zaangażowanych korporacji.
Indeks cen konsumpcyjnych (CPI) zapewnia znormalizowaną metodę porównywania średniego poziomu cen, z jakimi borykają się konsumenci i gospodarstwa domowe w danym kraju na przestrzeni czasu. Informacje o poziomie cen są kluczowe dla szerokiego grona decydentów osobistych, rządowych i biznesowych. CPI koncentruje się wyłącznie na cenach, z jakimi borykają się konsumenci, i nie próbuje odzwierciedlać cen, z jakimi borykają się wszystkie podmioty kupujące w danym kraju. Niemniej jednak jest to najczęściej używany wskaźnik poziomu cen w danym kraju. Stanowi podstawę do obliczenia stopy inflacji w danym kraju.
OBLICZENIA
Biuro Statystyki Pracy (BLS) publikuje dane CPI co miesiąc. Pracownicy BLS zbierają dane cenowe dotyczące ustalonego koszyka dóbr i usług rynkowych w wybranych miastach w całym kraju każdego miesiąca. Koszyk rynkowy obejmuje setki dóbr i usług, które zazwyczaj kupują konsumenci. Dane cenowe są następnie ważone, aby przedstawić mieszankę dóbr i usług, które zazwyczaj kupują konsumenci. Mieszanka dóbr i usług oraz wagi oparte są na Consumer Expenditure Survey, ogólnokrajowym badaniu nawyków wydatkowych 29 000 rodzin (BLS, "HowBLS Measures"). Dziesięcioletni spis ludności jest wykorzystywany do wyboru obszarów miejskich objętych miesięcznymi badaniami. CPI oblicza się, dzieląc ważoną cenę koszyka rynkowego w danym okresie przez ważoną cenę koszyka rynkowego w wyznaczonym okresie bazowym. Otrzymany współczynnik pomnożony przez 100 daje indeks o wartości 100 dla okresu bazowego. Wartości CPI powyżej lub poniżej 100 wskazują, że poziom cen jest wyższy lub niższy niż w okresie bazowym. Na przykład wartość indeksu 140 wskazuje, że średni poziom cen jest o 40 procent wyższy niż w roku bazowym. Ceny setek dóbr i usług są badane co miesiąc. Towary i usługi są podzielone na osiem głównych grup: żywność i napoje, mieszkalnictwo, odzież, transport, opieka medyczna, rekreacja, edukacja i komunikacja oraz inne towary i usługi. BLS co miesiąc publikuje liczne wskaźniki CPI oparte na zebranych danych. Dwiema głównymi seriami CPI są CPI-U (Consumer Price Index for All Urban Consumers) i CPI-W (Consumer Price Index for Urban Wage Earners and Clerical Workers). Oddzielne wskaźniki są publikowane dla dwudziestu sześciu wybranych obszarów miejskich i czterech regionów geograficznych kraju. Istnieją również wskaźniki dla trzech klas miast (populacja powyżej 1,5 miliona, średnie i małe obszary metropolitalne oraz obszary niemetropolitalne) oraz dla kategorii towarów i usług.
PROBLEMY POMIARU
Wskaźnik CPI zapewnia ogólne przybliżenie poziomu cen, z jakim borykają się konsumenci w danym okresie czasu. Nie jest on przeznaczony do pomiaru dokładnego poziomu cen, z jakim boryka się jakikolwiek konsument. BLS zbiera dane tylko w obszarach miejskich. Tak więc CPI nie próbuje dostarczyć miary poziomu cen na obszarach wiejskich. Jednakże CPI-U powinien być użyteczny dla około 87 procent populacji USA (BLS, "Guide to Available"). Istnieje dwutygodniowe opóźnienie między zakończeniem zbierania danych a publikacją danych CPI. Miara ma ograniczenia. Metodologia obliczeniowa była stopniowo dostosowywana w czasie, aby umożliwić dokładniejszy pomiar zmieniających się poziomów cen. Problemy z pomiarem obejmują stronniczość indeksu z powodu innowacji produktowych i zmian jakości, które wpływają na ceny i wzorce konsumpcji, a także nierównomierne zmiany cen w punktach sprzedaży detalicznej i obszarach geograficznych. Historycznie, CPI był obliczany jako indeks Laspeyresa lub indeks oparty na stałym koszyku rynkowym towarów i usług. Krytykowano to jako niedokładne podejście, ponieważ nie pozwala ono na zmianę wzorców konsumpcji. Wzory konsumpcji mogą się zmieniać z powodu dostępności nowych produktów, zmiany cech bieżących produktów, zmiany preferencji konsumentów lub zmian względnych cen towarów i usług. Wpływ dostępności nowych produktów na wzorce zakupowe obrazuje przykład takich produktów jak magnetowidy i kuchenki mikrofalowe, które nie były dostępne dla konsumentów do końca lat 70., ale stały się powszechnym zakupem gospodarstw domowych w ciągu niecałej dekady. Pojawienie się płyt audio CD i odtwarzaczy CD zmniejszyło zakupy kaset audio. Zmiany cen spowodowane zmianami jakości lub cech produktu można zaobserwować w rozwoju ręcznej maszyny do pisania, elektrycznej maszyny do pisania i procesora tekstu. W obliczeniach CPI wprowadzane są korekty w celu uwzględnienia wpływu zmian jakości na cenę. Ponadto okresowe korekty w koszyku rynkowym były dokonywane co osiem do dwunastu lat, aby uwzględnić zmieniające się wzorce konsumpcji spowodowane nowymi produktami. Stwarza to sytuację, w której porównania poziomów cen mogą być dokładniejsze, gdy są dokonywane w stosunkowo krótkich okresach czasu, a nie przez wiele lat lub dekad, w trakcie których charakter i struktura towarów i usług w koszyku rynkowym ulegały znacznym zmianom. Rok bazowy jest również okresowo zmieniany. Na przykład w styczniu 1988 r. rok bazowy CPI zmieniono z 1967 100 na 1982-1984=100. Począwszy od danych ze stycznia 1999 r. BLS przeszło na metodę indeksowania opartą na estymatorze średniej geometrycznej. Ta metoda nie wykorzystuje stałego koszyka rynkowego Laspeyresa; zamiast tego pozwala konsumentom dostosować zakupy w ramach szerokich kategorii towarów i usług ze względu na zmiany względnych cen towarów lub usług w każdej kategorii. Konsensus ekspertów był taki, że metoda Laspeyresa doprowadziła do CPI, który systematycznie przeceniał poziom cen faktycznie płaconych przez konsumentów, ponieważ konsumenci zastępowaliby towary, których cena wzrosła, podobnymi towarami o niższym wzroście cen. Metoda estymatora średniej geometrycznej została przyjęta w celu zmniejszenia tego przeszacowania. W ramach tej zmiany BLS informuje, że wagi wydatków CPI mają być aktualizowane zgodnie z regularnym dwuletnim harmonogramem (BLS, "Future Schedule"). W ciągu roku ceny wielu towarów i usług wahają się z powodu czynników sezonowych, takich jak wzrosty podaży wpływające na ceny warzyw w sezonie zbiorów. BLS publikuje również miesięczne sezonowo dostosowane miary CPI, które wykluczają miesięczne wahania wynikające z pory roku. CPI nie wyjaśnia żadnych zmian poziomu cen ani nie prognozuje przyszłych poziomów cen. Analitycy w badaniach nad tymi zagadnieniami szeroko wykorzystują jednak historyczne dane dotyczące wskaźnika CPI.
TREND HISTORYCZNY
CPI śledzi trwający trend wzrostu cen w Stanach Zjednoczonych. Porównując CPI w czasie, ważne jest, aby upewnić się, że wszystkie dane wykorzystują ten sam rok bazowy.
POWIĄZANE MIARY
CPI nie jest jedynym wskaźnikiem poziomu cen publikowanym przez rząd. Inne powszechne wskaźniki cen obejmują indeks cen producenta, który śledzi średnie ceny płacone przez producentów za nakłady, oraz deflator PKB, który obejmuje nie tylko ceny konsumpcyjne, ale także ceny płacone przez innych nabywców, takich jak inwestorzy i rząd. Kilka innych wskaźników opiera się bezpośrednio na CPI. Stopa inflacji kraju to roczna stopa zmian jego CPI. Ponadto wskaźniki siły nabywczej opierają się na danych CPI. Zazwyczaj indeks siły nabywczej jest odwrotnością indeksu cen. W istocie indeks cen odnosi się do tego, ile kosztowałby zakup tej samej grupy towarów i usług w porównaniu do okresu bazowego. Wskaźnik siły nabywczej odzwierciedla odsetek grupy dóbr i usług okresu bazowego, które można by kupić po bieżących cenach, gdyby dochód był stały.
ZASTOSOWANIA
Gospodarstwa domowe, firmy i rządy wykorzystują dane o poziomie cen na wiele sposobów. Jednym z najczęstszych zastosowań jest dostosowanie innych statystyk do zmian poziomu cen. Uzyskane w ten sposób skorygowane o cenę miary są określane kilkoma terminami, w tym: realne, w stałych dolarach, w dolarach (wymień rok bazowy) lub deflowane. Na przykład, jeśli dana osoba otrzymała 10-procentową podwyżkę, podczas gdy CPI wzrósł o 3 procent, dana osoba miałaby 7-procentowy wzrost realnego dochodu. Dane, które nie są korygowane o zmiany poziomu cen, są określane terminem opisowym nominalnym. Realne miary są powszechnie stosowane w doniesieniach medialnych i przez decydentów. Innymi przykładami realnych miar są realny produkt krajowy brutto, realne stopy procentowe, realne kursy walut i realne zakupy rządowe. Osoby fizyczne i gospodarstwa domowe rzadko bezpośrednio korzystają z CPI, chociaż często korzystają z informacji opartych na CPI. Przykłady obejmują porównania kosztów życia w różnych miastach, planowanie, ile dochodu będzie potrzebne, aby zapewnić porównywalny standard życia na emeryturze, negocjowanie z pracodawcami podwyżek i określanie rzeczywistego zwrotu z oszczędności. Firmy szeroko wykorzystują CPI do prognozowania przyszłych średnich poziomów cen i wydatków konsumpcyjnych. Oczekiwany poziom cen staje się również ważną kwestią przy negocjowaniu klauzul eskalacyjnych w długoterminowych umowach. Umowy o pracę i plany emerytalne mogą zawierać klauzule dotyczące dostosowania kosztów utrzymania (COLA), które wiążą podwyżki płac lub emerytur ze wzrostem CPI. Międzynarodowi decydenci biznesowi uważnie monitorują różnice w stopach inflacji w odpowiednich krajach. Wiele gałęzi rządu wykorzystuje CPI. Stabilny poziom cen jest jednym z trzech głównych celów stabilności gospodarczej, a CPI jest głównym narzędziem pomiarowym do oceny postępów kraju w kierunku tego celu. Dlatego zarówno decydenci polityki fiskalnej, jak i pieniężnej wykorzystują tę statystykę. Poziomy wielu wydatków rządowych, takich jak poziomy płatności transferowych i pensje pracowników rządowych, są powiązane ze zmianami CPI. System prawny może integrować korekty CPI z umowami alimentacyjnymi lub alimentacyjnymi. W latach 80. Stany Zjednoczone zaczęły indeksować progresywne przedziały podatkowe od dochodu do stopy inflacji. W ramach indeksowanego systemu podatkowego osoba znajdzie się w wyższym krańcowym przedziale podatkowym od dochodu tylko wtedy, gdy jej dochód wzrośnie szybciej niż CPI.
Instytucja finansowa to taka, która ułatwia alokację zasobów finansowych ze źródła do potencjalnych użytkowników. W Stanach Zjednoczonych istnieje wiele różnych typów instytucji finansowych, tworzących bogatą mozaikę w systemie finansowym. Niektóre instytucje pozyskują fundusze i udostępniają je użytkownikom. Inne działają jako pośrednicy między jednostkami deficytowymi i nadwyżkowymi. Jeszcze inne inwestują (zarządzają) funduszami jako agenci swoich klientów. Kluczowe kategorie instytucji finansowych to: przyjmowanie depozytów; finanse i ubezpieczenia; oraz zarządzanie inwestycjami, emeryturami i ryzykiem. Istnieją również instytucje rządowe i sponsorowane przez rząd, które realizują funkcje regulacyjne, nadzorcze i finansowe. Historycznie każdy typ pełnił wyspecjalizowaną funkcję w finansowaniu i zarządzaniu inwestycjami.
PRZYJMOWANIE DEPOZYTÓW
Instytucje przyjmujące depozyty przybierają formę banków komercyjnych, które przyjmują depozyty i udzielają pożyczek komercyjnych i innych; stowarzyszeń oszczędnościowo-pożyczkowych i banków oszczędnościowo-pożyczkowych, które przyjmują depozyty i udzielają pożyczek hipotecznych i innych; oraz spółdzielni kredytowych, które są organizacjami spółdzielczymi, które wydają certyfikaty akcji i udzielają pożyczek członkowskich (konsumenckich) i innych. Łącznie istnieje ponad 15 000 instytucji przyjmujących depozyty z ponad 100 000 oddziałów rozsianych po całej gospodarce. Amerykański system bankowości komercyjnej praktykował konkurencję za pośrednictwem dużej liczby firm w branży od 1776 do 1976 roku. Został zaprojektowany jako system bankowości jednostkowej, w którym statuty stanowe banków zezwalały tylko na bankowość jednooddziałową. System zachęcał również do oszczędności i wykorzystywania lokalnych oszczędności na inwestycje w lokalną gospodarkę. System bankowości jednostkowej nie tylko wymuszał konkurencję między istniejącymi i nowymi bankami na danym rynku bankowym; celowo unikał powstawania monopoli w branży. Ojcowie założyciele pierwotnych trzynastu stanów rozumieli szkody, jakie monopole mogą wyrządzić systemom gospodarczym i finansowym. W odpowiednim czasie Kongres Stanów Zjednoczonych uchwalił ustawę antymonopolową Shermana z 1890 r., uznając monopol i praktyki monopolistyczne za niedopuszczalne, a zatem nielegalne. Sektor bankowości komercyjnej dominował w amerykańskim sektorze finansowym od początku do lat 70. XX wieku, kiedy to innowacje w produktach finansowych i wynikające z nich wybory biznesowe i konsumenckie eksplodowały, tworząc konkurencję w branżach usług finansowych. Sektor bankowości komercyjnej i jego ograniczona oferta produktów po obu stronach bilansu były jedynymi opcjami dostępnymi dla ogółu społeczeństwa. Wynika to z faktu, że banki komercyjne specjalizowały się w przyjmowaniu depozytów na rachunkach bieżących po stronie zobowiązań i udzielaniu pożyczek komercyjnych po stronie aktywów. Polegały one na zabezpieczeniu swoich operacji opartym na zapadalności, głównie krótkoterminowych zobowiązań, za pomocą krótkoterminowych, samospłacających się aktywów pożyczek komercyjnych. Oznaczało to również, że gospodarstwa domowe, rolnicy, studenci i inne grupy nie miały dostępu do kapitału finansowego. Towarzystwa oszczędnościowo-pożyczkowe, wzajemne banki oszczędnościowe i spółdzielnie kredytowe oraz fundusze rynku pieniężnego to inne instytucje przyjmujące depozyty. Towarzystwa oszczędnościowo-pożyczkowe przyjmują depozyty oszczędnościowe i przede wszystkim udzielają kredytów hipotecznych w całym kraju. Zapewniły fundusze na stworzenie milionów jednostek mieszkaniowych w hrabstwie. Ich kluczową funkcją jest pośrednictwo w zapadalności, gdy przyjmują krótkoterminowe depozyty i udzielają długoterminowych kredytów hipotecznych. Wzajemne banki oszczędnościowe istnieją głównie we wschodniej części Stanów Zjednoczonych. Podobnie jak stowarzyszenia oszczędnościowo-pożyczkowe, one również przyjmują krótkoterminowe depozyty i udzielają długoterminowych kredytów hipotecznych. Udzielają również kredytów konsumenckich i innych, co czyni je nieco bardziej zróżnicowanymi, a zatem mniej ryzykownymi pod względem niewywiązywania się z zobowiązań kredytowych. Towarzystwa kredytowe specjalizują się w oszczędnościach i pożyczkach członkowskich, chociaż udzielają również kredytów hipotecznych i innych inwestycji podobnych do innych instytucji przyjmujących depozyty.
INSTYTUCJE FINANSOWE I UBEZPIECZENIOWE
Firmy finansowe (kredytowe) różnią się od instytucji bankowych przyjmujących depozyty tym, że ich źródłami funduszy nie są depozyty. Pozyskują fundusze na rynku poprzez emitowanie własnych zobowiązań, takich jak weksle i obligacje. Udzielają jednak pożyczek po drugiej stronie bilansu w pełnej konkurencji z instytucjami przyjmującymi depozyty i innymi rodzajami instytucji finansowych, takimi jak firmy ubezpieczeniowe. Firmy finansowe specjalizują się w finansowaniu zapasów przedsiębiorstw, chociaż udzielają również pożyczek konsumenckich, głównie pośrednio za pośrednictwem producentów i dystrybutorów towarów i usług. Niektóre firmy finansowe są ogromne i działają zarówno na rynkach krajowych, jak i zagranicznych. Kilka z nich jest większych niż większość banków komercyjnych w Stanach Zjednoczonych. Firmy ubezpieczeniowe świadczą podwójne usługi ochrony ubezpieczeniowej i inwestycji. Istnieją dwa rodzaje firm ubezpieczeniowych: firmy ubezpieczeniowe na życie oraz firmy ubezpieczeniowe od następstw nieszczęśliwych wypadków i majątku. Źródłami funduszy firm ubezpieczeniowych są przede wszystkim składki ubezpieczeniowe. Ich wykorzystanie funduszy obejmuje pożyczki (konkurując tym samym z firmami finansowymi, bankami komercyjnymi i stowarzyszeniami oszczędnościowo-pożyczkowymi) po tworzenie produktów inwestycyjnych (konkurując tym samym z firmami inwestycyjnymi). Firmy ubezpieczeniowe na życie dopasowują swoje określone potrzeby oparte na śmiertelności w zakresie odpływów gotówki do bardziej ryzykownych inwestycji długoterminowych, takich jak akcje i obligacje. Firmy ubezpieczeniowe od następstw nieszczęśliwych wypadków i majątku mają większą niepewność co do wypływów gotówki i ich terminów. Dlatego też mają bardziej konserwatywne zasady inwestycyjne pod względem zapadalności i ryzyka kredytowego swoich inwestycji.
INWESTYCJE, EMERYTURY I ZARZĄDZANIE RYZYKIEM
Firmy inwestycyjne łączą fundusze i inwestują na rynku, aby osiągnąć cele wyznaczone dla różnych rodzajów inwestycji, dopasowując płynność, termin zapadalności, zwrot, ryzyko, podatki i inne preferencje inwestorów z jednej strony i użytkowników funduszy z drugiej. Firmy inwestycyjne są organizowane jako fundusze inwestycyjne otwarte lub zamknięte. Fundusze otwarte akceptują nowe inwestycje i spłacają stare, podczas gdy fundusze zamknięte akceptują fundusze jednorazowo, a następnie nie przyjmują nowych funduszy. Firmy inwestycyjne stały się bardzo popularne wśród inwestorów w ostatnich dekadach, dzięki czemu zmobilizowały biliony dolarów. Innym rodzajem firmy inwestycyjnej są banki inwestycyjne, które udzielają porad inwestycyjnych i pozyskiwania funduszy potencjalnym użytkownikom funduszy, takim jak firmy komercyjne, przemysłowe i finansowe. Tworzą również fundusze lub firmy kapitału podwyższonego ryzyka. Niektóre z nich mają również biura maklerskie i dealerskie w zakresie papierów wartościowych. Wiele z nich obejmuje papiery wartościowe, a następnie umieszcza je na rynku lub sprzedaje inwestorom. Fundusze emerytalne w sektorze prywatnym i rządowym gromadzą składki emerytalne i inwestują je zgodnie z celami pracowników w odniesieniu do ich funduszy. Coraz częściej pracownicy są w stanie wskazać swoje osobiste preferencje dotyczące celów ryzyka i nagrody w odniesieniu do ich własnych, a czasami również składek ich pracodawców. Inne instytucje, które są znaczącymi częściami systemu finansowego, to giełdy akcji, obligacji, towarów, walut, kontraktów terminowych i opcji. Różne rodzaje giełd umożliwiają nie tylko tworzenie i posiadanie roszczeń finansowych, ale także zarządzanie płynnością i ryzykiem zmian cen oraz innymi ryzykami w podstawowych towarach na rynku. Znacznie rozszerzają możliwości inwestycyjne dla oszczędzających i dostęp do funduszy dla małych, średnich i dużych przedsiębiorstw. Pogłębiły i poszerzyły rynki produktów i usług finansowych, pomogły zarządzać ryzykiem cenowym i poprawiły efektywność alokacji na rynkach finansowych, gdzie każdy pożądany atrybut produktu finansowego ma kontrahenta, z którym może handlować. Pośrednicy bankowi i inwestycyjni rozszerzyli swoje usługi na globalnych oszczędzających-inwestorów, umożliwiając transgraniczny przepływ środków i handel produktami finansowymi, ułatwiony przez transgraniczne inwestowanie, notowanie i handel papierami wartościowymi na rynkach krajowych i zagranicznych w walutach krajowych i zagranicznych
HISTORYCZNY ROZWÓJ SYSTEMU FINANSOWEGO USA
Specjalizacja i podział pracy, zidentyfikowane jako źródła kreatywności i wydajności przez Adama Smitha, doprowadziły do powstania innych wyspecjalizowanych instytucji finansowych, przyjmujących depozyty i inwestujących, które zaczęły zaspokajać popyt niezaspokojony przez sektor bankowości komercyjnej. Podobne instytucje zostały utworzone w celu finansowania rolnictwa i budownictwa mieszkaniowego na obszarach wiejskich, robót publicznych i edukacji. Przepisy i regulacje uznały i wzmocniły rozdzielenie, a tym samym specjalizację funkcji finansowej, jaką różni pośrednicy wykonywali w systemie finansowym. System został dodatkowo wzmocniony przez ustanowienie rządowych i półrządowych pośredników w celu zwiększenia płynności na rynku, zarządzania ryzykiem zapadalności i rozszerzenia podziału ryzyka rynkowego (cenowego) poprzez rynki wtórne kredytów hipotecznych, papierów wartościowych agencji (rządowych i sponsorowanych) i innych papierów wartościowych opartych na aktywach. Przykładami instytucji są: Commodity Credit Corporation, Farm Credit Banks, Farm Credit Financing Assistance Corporation, Farmers Home Administration, Federal Home Loan Mortgage Corporation (FEDMAC), Federal Financing Corporation, Federal National Mortgage Association (FNMA), Federal Housing Administration (FHA), Federal Home Loan Banks, Government National Mortgage Association (GNMA), Resolution Funding Corporation, Small Business Administration i Student Loan Marketing Association (SLMA).
SYSTEM MONETARNY
System monetarny USA opiera się na kredycie. Waluta USA jest emitowana przez bank centralny, System Rezerwy Federalnej, jako zobowiązanie wobec siebie. Wartość waluty opiera się na jej sile nabywczej w gospodarce i na świecie i nie była powiązana ani definiowana w kategoriach żadnego konkretnego towaru lub indeksu od 1968 r. Emisja waluty była powiązana z amerykańskimi zasobami złota przed 1968 r. Podaż pieniądza w USA składa się z waluty i monet oraz czekowych depozytów publicznych w systemie bankowym. Miarami pieniądza są M1, M2, M3 i L. System Rezerwy Federalnej, utworzony w 1913 r., został ustanowiony w celu dostarczania elastycznej waluty do gospodarki i nadzorowania systemu bankowego. Przed 1913 r. miały miejsce kryzysy finansowe, które były spowodowane brakiem systematycznego sposobu dostarczania pieniądza i kredytu w gospodarce. Miały również miejsce duże bankructwa banków z powodu oszustw i złego zarządzania, a także wahania gospodarcze oraz boom i krachy cen towarów. System Rezerwy Federalnej składa się z Rady Gubernatorów Rezerwy Federalnej i dwunastu regionalnych lub okręgowych banków Rezerwy Federalnej. Rada Gubernatorów w Waszyngtonie jest centralnym punktem decyzyjnym organizacji w zdecentralizowanym systemie. Rada składa się z siedmiu członków, którzy są nominowani przez prezydenta i zatwierdzani przez Senat. Każdy członek rady ma czternastoletnią kadencję, aby uczynić radę odporną na wpływy polityczne jakiejkolwiek administracji sprawującej urząd. Rada jest ustanowiona jako niezależna agencja; nie podlega prezydentowi, ale podlega Kongresowi. Jednak aktywnie koordynuje swoje badania i analizy z Białym Domem i Sekretarzem Skarbu w formułowaniu polityki. Rada Dyrektorów regionalnych banków Rezerwy Federalnej jest również ustrukturyzowana tak, aby reprezentować bankowość, przemysł i handel oraz ogół społeczeństwa. Istnieje formalny wymóg ustawowy, aby w radzie zasiadało trzech dyrektorów z trzech grup w tym obszarze. Organem kształtującym politykę pieniężną w ramach Rezerwy Federalnej jest Federal Open Market Committee (FOMC), który spotyka się regularnie (zwykle osiem razy w roku). Jego członkami z prawem głosu jest siedmiu gubernatorów Rady Gubernatorów i pięciu prezesów banków regionalnych. Prezes Federal Reserve Bank of New York jest stałym członkiem FOMC, a pozostali czterej pełnią funkcję rotacyjnie spośród czterech grup utworzonych z pozostałych jedenastu banków regionalnych. Banki regionalne znajdują się w Bostonie, Nowym Jorku, Filadelfii, Richmond, Atlancie, Cleveland, Chicago, Dallas, St. Louis, Kansas City, Minneapolis i San Francisco. Miasta te zostały wybrane, ponieważ stanowiły centrum gospodarki regionalnej każdego obszaru Stanów Zjednoczonych w 1913 r. Uważano wówczas, że gospodarki regionalne mają różne cechy pod względem rodzaju i poziomu aktywności gospodarczej, dlatego też wymagają różnych dostosowań w odniesieniu do podaży pieniądza i finansów, mechanizmów redyskontowania i stóp procentowych. Innymi słowy, uważano, że w gospodarce USA istnieje dwanaście różnych rynków pieniężnych, więc każdy z nich wymaga szczególnej uwagi dla swoich potrzeb. Ta struktura Systemu Rezerwy Federalnej trwa do dziś, ale rynek pieniężny stał się jednym rynkiem ze względu na postęp instytucjonalny i technologiczny. Teraz istnieją prawdziwie krajowe instytucje finansowe, nie tylko pod względem ich statutu krajowego, z międzystanowym przyjmowaniem depozytów i udzielaniem pożyczek komercyjnych i wielu innych rodzajów pożyczek dla przedsiębiorstw i gospodarstw domowych. Polityka Rezerwy Federalnej służy potrzebom całej gospodarki i wszystkich jej części, biorąc pod uwagę informacje ekonomiczne i finansowe dotyczące wszystkich segmentów gospodarczych i działań w gospodarce USA. Istnieje wiele komitetów doradczych, takich jak Federal Advisory Committee reprezentujący interesy sektora bankowego, Consumer Advisory Committee reprezentujący interesy konsumentów i podobne inne komitety reprezentujące interesy innych segmentów w Systemie Rezerwy Federalnej. Ustawodawstwo, regulacje, polityka pieniężna i codzienne operacje banku centralnego uwzględniają istotne szczegóły w swoich rozważaniach i decyzjach politycznych, w tym badania z szerokiej gamy źródeł, prywatnych i publicznych, na temat gospodarki.
STRUKTURA PRAWNA I REGULACYJNA
Kluczowe prawa regulujące działalność amerykańskich instytucji finansowych to: National Bank Act z 1863 r.; Federal Reserve Act z 1913 r.; McFadden Act z 1927 r.; Banking Act (Glass-Steagall) z 1933 r. i 1935 r.; Securities Act z 1933 r.; Securities Exchange Act z 1934 r.; Federal Credit Union Act z 1934 r.; Investment Advisors Act z 1940 r.; Investment Company Act z 1940 r.; Bank Holding Company Act z 1956 r. i Douglas Amendment z 1970 r.; Bank Merger Act z 1966 r.; Employment Retirement Income Security Act z 1974 r.; Depository Institutions Deregulation and Monetary Control Act z 1980 r.; Depository Institutions (Garn-St. Germain) Act z 1982 r.; Competitive Equality in Banking Act z 1987 r.; Financial Institutions Reform, Recovery, and Enforcement Act z 1989 r.; Federal Deposit Insurance Corporation Improvement Act z 1991 r.; Interstate Banking and Branching Efficiency Act z 1994 r.; oraz Financial Modernization Act z 1999 r. Federalne agencje regulujące instytucje depozytowe to: Office of the Comptroller of the Currency, Federal Reserve System, Federal Deposit Insurance System, National Credit Union Administration i Office of Thrift Supervision. Securities and Exchange Commission, Commodity Futures Trading Commission i Justice Department monitorują i egzekwują odpowiednie prawa i przepisy dotyczące rynków papierów wartościowych i kontraktów terminowych. Władze stanowe regulują, monitorują i egzekwują prawa dotyczące depozytów, ubezpieczeń, firm finansowych i innych instytucji finansowych. Prawa i przepisy dotyczące instytucji finansowych w Stanach Zjednoczonych uczyniły je konkurencyjnymi, wydajnymi, uczciwymi, bezpiecznymi i rzetelnymi oraz przejrzystymi dzięki zastosowaniu zarówno marchewek, jak i kijów.
Ustawa o modernizacji usług finansowych z 1999 r.
System finansowy Stanów Zjednoczonych w XXI wieku ewoluował w największy, najbardziej rozwinięty, najbardziej wydajny i najbardziej wyrafinowany system finansowy na świecie. System finansowy rozrósł się ogromnie od czasu założenia pierwszej firmy ubezpieczeniowej przez Benjamina Franklina, jako Philadelphia Contributionship, w 1752 r. Pierwszymi bankami w Stanach Zjednoczonych były Bank of New York, założony przez Alexandra Hamiltona w 1784 r.; Bank of Boston, również założony w 1784 r.; oraz First Bank of the United States, zarejestrowany w 1791 r. Struktury ekonomiczne i siły, które umożliwiły ten sukces, to koncepcje (lub kamienie węgielne) konkurencji, specjalizacji, oszczędności, przedsiębiorczego zapału i innowacji. Te koncepcje były równie dobrze rozumiane i energicznie praktykowane w koloniach amerykańskich, jak zostały rozwinięte przez Adama Smitha w Szkocji w 1776 r. w An Inquiry into the Nature and Causes of the Wealth of Nations, jego syntezie konkurencyjnego systemu rynkowego. Stany Zjednoczone ustrukturyzowały swoje systemy gospodarcze i finansowe na podstawie modelu ekonomicznego Smitha od czasu ich założenia w 1776 r. Niektóre z kluczowych koncepcji, które były kamieniami węgielnymi tej architektury finansowej, to: konkurencja, wydajność, kultura przedsiębiorczości, kapitał finansowy, innowacja, regulacja/deregulacja/liberalizacja, reforma, zarządzanie ryzykiem, oszczędności, specjalizacja i oszczędność. Ustawa o modernizacji usług finansowych, podpisana przez prezydenta 12 października 1999 r., usuwa wiele ograniczeń nałożonych na instytucje bankowe i papierów wartościowych w latach 20. i 30. XX wieku. Na przykład konglomeraty finansowe będą mogły ponownie organizować bankowość komercyjną, działalność ubezpieczeniową, bankowość inwestycyjną, emisję papierów wartościowych i inne usługi finansowe pod parasolem spółki holdingowej/matki. Ustawa McFaddena i ustawa Glassa-Steagalla są już w księgach historii. Innowacje finansowe, które stały się możliwe dzięki technologiom komputerowym i komunikacyjnym, a które powstały dzięki konkurencji i deregulacji, wprowadziły amerykańskie instytucje finansowe i cały system finansowy do ekscytującej struktury finansowej XXI wieku.
Instytut Audytorów Wewnętrznych został założony w 1941 roku przez niewielką grupę oddanych audytorów wewnętrznych, którzy pragnęli organizacji promującej rolę audytora wewnętrznego oraz zapewniającej działania edukacyjne i standardy profesjonalnej praktyki audytu wewnętrznego. Do 1999 roku Instytut rozrósł się do ponad 70 000 członków reprezentujących ponad sto krajów na całym świecie. W 1944 roku Instytut rozpoczął wydawanie swojego czasopisma "Internal Auditor". To wielokrotnie nagradzane czasopismo nadal prezentuje szczegółowe informacje na temat praktyk i technik audytu oraz publikuje artykuły napisane przez ekspertów z całego świata. W 1947 roku wydano Oświadczenie o Odpowiedzialności Audytu Wewnętrznego, które stało się podstawą rozwoju standardów audytu wewnętrznego. Oficjalne motto "Postęp poprzez dzielenie się" zostało przyjęte w 1955 roku i nadal wyznacza kierunek działań Instytutu na rzecz rozwoju zawodu. Członkowie Instytutu zatwierdzili Kodeks Etyki w 1968 roku. W 1972 roku członkowie Instytutu przyjęli Wspólny Korpus Wiedzy (Common Body of Knowledge), który określał treść egzaminu oferowanego po raz pierwszy w 1973 roku. Egzamin jest wymogiem uzyskania tytułu Certyfikowanego Audytora Wewnętrznego (CIA). Fundacja Badawcza IIA, założona w 1976 roku, sponsoruje badania nad trendami i problemami w audycie wewnętrznym. Standardy Praktyki Zawodowej Audytu Wewnętrznego zostały zatwierdzone w 1978 roku. Świadomość znaczenia przygotowania uniwersyteckiego do audytu wewnętrznego zmotywowała do uruchomienia programu pilotażowego z audytu wewnętrznego na Uniwersytecie Stanowym Luizjany. Sukces tego początkowego programu doprowadził do utworzenia podobnych programów w innych szkołach wyższych i uniwersytetach. Do 1999 roku ponad 35 szkół wyższych i uniwersytetów na całym świecie uczestniczyło w Zatwierdzonym Programie Audytu Wewnętrznego. Do godnych uwagi wydarzeń w latach 80. XX wieku należało wprowadzenie pierwszego oprogramowania komputerowego Instytutu, planu audytu; utworzenie Służby Przeglądu Zapewnienia Jakości (Quality Assurance Review Service); obowiązkowy rozwój zawodowy dla audytorów wewnętrznych (CIA); oraz przyznanie Instytutowi statusu konsultacyjnego przez Organizację Narodów Zjednoczonych. W latach 90. liczba certyfikatów zawodowych przekroczyła 25 000; rozwinęła się Globalna Sieć Informacji Audytorskiej, która gromadzi i rozpowszechnia informacje porównawcze; oraz powstały dwie strony internetowe - www.theiia.org i www.itaudit.org. W latach 90. XX wieku wprowadzono również specjalistyczne grupy, usługi i produkty, aby sprostać unikalnym potrzebom członków. Należą do nich Centrum Samooceny Kontroli, Certyfikacja w Samoocenie Kontroli, Program Certyfikowanych Audytorów Rządowych, Certyfikacja Rady Audytorów Środowiskowych oraz Program Dyrektora Audytu Głównego. W 1999 roku Rada Dyrektorów Instytutu zatwierdziła nowe Ramy Praktyk Zawodowych, które będą podstawą do opracowania kompleksowych, nowych standardów audytu wewnętrznego. Rada zatwierdziła również nową definicję, która definiuje audyt wewnętrzny jako niezależną, obiektywną działalność zapewniającą i doradczą, mającą na celu dodanie wartości i usprawnienie działalności organizacji. Funkcja audytu wewnętrznego pomaga organizacji osiągać jej cele poprzez systematyczne i zdyscyplinowane podejście do oceny i poprawy efektywności procesów zarządzania ryzykiem, kontroli i ładu korporacyjnego. Misją Instytutu Audytorów Wewnętrznych jest bycie głównym międzynarodowym stowarzyszeniem o zasięgu globalnym, poświęconym promowaniu i rozwojowi praktyki audytu wewnętrznego. Instytut działa jako organizacja non-profit, zarządzana przez zarząd złożony z wolontariuszy wybieranych przez członków. Instytuty Narodowe działają na całym świecie i zazwyczaj wspierają lokalne oddziały. Komitety wolontariuszy na szczeblu międzynarodowym, regionalnym, okręgowym i lokalnym wspierają lokalne oddziały, instytuty krajowe i zarząd międzynarodowy. Instytut oferuje różnorodne opcje członkostwa i programy certyfikacyjne, ustanawia standardy audytu wewnętrznego i inne wytyczne, prowadzi szkolenia poprzez konferencje i seminaria, tworzy materiały edukacyjne, takie jak filmy, pomoce naukowe, podręczniki i oprogramowanie, wydaje publikacje naukowe i promuje relacje akademickie. Instytut wydaje kilka czasopism, oferuje usługi pośrednictwa pracy, generuje dane porównawcze, świadczy usługi zapewnienia jakości i doradztwa, prowadzi elektroniczne centrum informacji oraz współpracuje z innymi organizacjami zawodowymi w celu monitorowania i raportowania problemów dotyczących zawodu.
Instytut Rachunkowości Zarządczej (IMA) to największe na świecie stowarzyszenie edukacyjne non-profit, zajmujące się wyłącznie rachunkowością zarządczą, finansami i zarządzaniem informacją. Zostało założone w 1919 roku w Buffalo w stanie Nowy Jork jako Krajowe Stowarzyszenie Księgowych Kosztowych przez grupę przedsiębiorców, aby poszerzać wiedzę i profesjonalizm osób zainteresowanych rachunkowością kosztową. Następnie nazwę zmieniono na Krajowe Stowarzyszenie Księgowych, a w 1991 roku na obecną. Zmiany te miały odzwierciedlać poszerzoną misję, jaką jest upowszechnianie najnowszej wiedzy z zakresu rachunkowości i finansów wśród wszystkich specjalistów zatrudnionych w przedsiębiorstwach publicznych i prywatnych, a także w instytucjach rządowych i edukacyjnych. W swoim oświadczeniu o misji, IMA stwierdza, że "zapewni członkom możliwości rozwoju osobistego i zawodowego poprzez edukację, współpracę z profesjonalistami biznesowymi oraz certyfikację w zakresie rachunkowości zarządczej i zarządzania finansami, a
także zapewni, że IMA będzie globalnie uznawana przez społeczność finansową za szanowaną instytucję, która kształtuje koncepcje i etyczne praktyki rachunkowości zarządczej i zarządzania finansami". Jako międzynarodowa organizacja edukacyjna, IMA sponsoruje dwa programy certyfikacyjne: certyfikowany księgowy zarządczy (CMA) i certyfikowany księgowy zarządczy (CFM). . Programy te są administrowane przez jednostkę stowarzyszoną, Instytut Certyfikowanych Księgowych Zarządczych (Institute of Certified Management Accountants), założony w 1972 roku. Sztandarowym wydawnictwem Instytutu jest miesięcznik Strategic Finance. IMA wydaje również cztery razy w roku kwartalnik Management Accounting Quarterly oraz kwartalnik Focus, który jest kierowany do wszystkich członków. Za pośrednictwem innej jednostki stowarzyszonej, Fundacji Badań Stosowanych IMA (IMA Foundation for Applied Research, FAR), IMA prowadzi badania i publikuje wyniki badań i analiz terenowych. We współpracy z innymi organizacjami publikuje również
serię poradników zatytułowaną "Oświadczenia dotyczące rachunkowości zarządczej". W ramach swoich obowiązków zawodowych IMA uczestniczy w procesie stanowienia przepisów rachunkowości i komentuje go za pośrednictwem komitetu wysokiego szczebla. IMA oferuje swoim 65 000 członków możliwość dołączenia do trzech grup zainteresowań: Rady Kontrolerów, Grupy ds. Zarządzania Kosztami i Rady Małych Przedsiębiorstw. Każda grupa publikuje biuletyn dziesięć razy w roku, zawierający informacje na temat trendów i praktyk branżowych, nowych technologii oraz zagadnień sprawozdawczości finansowej i zarządczej. Ankiety wśród członków są przeprowadzane w celu informowania ich o tym, jak ich koledzy z innych branż i organizacji radzą sobie z kluczowymi problemami. Ponadto członkowie mogą dołączać do grup internetowych, które umożliwiają im nawiązywanie kontaktów i wymianę informacji online, zajmując się ich konkretną branżą lub szczególnymi zainteresowaniami. IMA wymaga od certyfikowanych członków uzyskania określonej liczby
punktów za doskonalenie zawodowe każdego roku. Instytut oferuje szereg metod realizacji tego celu, w tym coroczną konferencję, programy edukacyjne dla oddziałów/rad, Regionalne Programy Wsparcia Edukacyjnego, kursy do samodzielnej nauki (w tym oferty online), comiesięczny program subskrypcji filmów wideo oraz seminaria krajowe. Oferuje również wewnętrzne programy edukacyjne dla firm, koncentrując się na aktualnych trendach, rozwoju branżowym i ciągłym doskonaleniu umiejętności. Instytutem zarządzają wolontariusze, prezes, komitet wykonawczy i rada dyrektorów. Bieżącą działalnością Instytutu kieruje dyrektor wykonawczy zatrudniony na etacie, zatrudniony w pełnym wymiarze godzin, w oparciu o wytyczne polityczne ogłoszone przez komitet wykonawczy i radę dyrektorów. Działalność prowadzą również około trzystu lokalnych oddziałów i dwadzieścia cztery rady regionalne, które regularnie organizują spotkania techniczne i inne spotkania.
Biznes międzynarodowy nie jest nowym zjawiskiem; jego historia sięga czasów sprzed Fenicjan. Produkty były przedmiotem handlu transgranicznego w całej udokumentowanej cywilizacji, sięgając czasów sprzed Jedwabnego Szlaku, który niegdyś łączył Wschód z Zachodem od Xian do Rzymu. Jedwabny Szlak był prawdopodobnie najbardziej wpływowym międzynarodowym szlakiem handlowym ostatnich dwóch tysiącleci, dosłownie kształtując świat, jaki znamy. Na przykład makaron, ser i lody, a także kompas i materiały wybuchowe, między innymi, zostały przywiezione do świata zachodniego z Chin Jedwabnym Szlakiem. Stosunkowo nowym zjawiskiem, począwszy od dużych firm amerykańskich w latach 50. i 60. XX wieku oraz firm europejskich i japońskich w latach 70. i 80. XX wieku, jest duża liczba firm zaangażowanych w inwestycje międzynarodowe, których działalność produkcyjno-sprzedażowa jest rozlokowana na całym świecie. Nigdy wcześniej w historii gospodarki kraje nie były tak wzajemnie zależne gospodarczo jak obecnie. Chociaż druga połowa XX wieku charakteryzowała się najwyższym w historii, utrzymującym się tempem wzrostu produktu krajowego brutto (PKB), wzrost międzynarodowych przepływów towarów i usług konsekwentnie przewyższał tempo wzrostu gospodarki światowej. Jednocześnie wzrost międzynarodowych przepływów finansowych - w tym bezpośrednich inwestycji zagranicznych, inwestycji portfelowych i handlu walutami - zaczął żyć własnym życiem. Dzienne międzynarodowe przepływy finansowe przekraczają obecnie bilion dolarów. Dzięki liberalizacji handlu, zapoczątkowanej przez Układ Ogólny w sprawie Taryf Celnych i Handlu (GATT) i jego następcę, Światową Organizację Handlu (WTO), bariery w handlu międzynarodowym i przepływach finansowych stale się zmniejszają. Podczas gdy globalny PKB wzrósł pięciokrotnie od 1950 roku, handel światowy wzrósł siedemnastokrotnie w tym samym okresie. W przypadku czterdziestu dziewięciu krajów średni udział eksportu w PKB również wzrósł do około 24 procent w 1998 roku z 17 procent dekadę wcześniej. Rozwijające się rynki światowe są kluczową siłą napędową gospodarki XXI wieku. Chociaż poważny kryzys w Azji pod koniec lat 90. XX wieku uwypukla wrażliwość globalnego rynku, długoterminowe trendy wzrostu handlu i inwestycji oraz wzrostu światowych dochodów utrzymują się. W rezultacie nawet firma działająca tylko na jednym rynku krajowym nie jest odporna na wpływy zewnętrznych działań gospodarczych. Efektem tych czynników jest rosnąca współzależność krajów i gospodarek, wzrost konkurencyjności oraz wynikająca z tego konieczność ciągłego monitorowania międzynarodowego otoczenia gospodarczego przez firmy.
POWIĄZANA GOSPODARKA ŚWIATOWA
Zasoby ludzkie, naturalne i kapitałowe kształtują charakter międzynarodowego biznesu. Względne wyposażenie kraju w te zasoby kształtuje jego konkurencyjność. Chociaż nie należy dokonywać uogólnień, rola zasobów ludzkich staje się coraz ważniejsza jako główny czynnik determinujący konkurencyjności przemysłu i kraju. Raport Instytutu Studiów nad Polityką Przemysłową z 1998 r. dotyczący konkurencyjności krajów umieścił azjatyckie tygrysy - Indonezję, Tajlandię, Singapur, Tajwan, Koreę, Hongkong i Malezję - wśród dziesięciu najlepszych gospodarek świata, obok Japonii i Stanów Zjednoczonych, pod względem zasobów ludzkich. Należy zachować ostrożność, korzystając z raportów zbiorczych. Chociaż rankingi zasobów ludzkich i naturalnych mogą nieznacznie różnić się z roku na rok, ranking zasobów kapitałowych może się drastycznie zmieniać z roku na rok ze względu na ich zmienny charakter. Po połączeniu wszystkich tych zasobów możemy spodziewać się ogromnej złożoności konkurencyjności kraju. Nie można przecenić znaczenia handlu międzynarodowego i inwestycji dla żadnego kraju. Ogólnie rzecz biorąc, im większa gospodarka krajowa, tym mniejsze jest jej uzależnienie od eksportu i importu w stosunku do PKB. W Stanach Zjednoczonych (PKB = 7,43 bln USD w 1998 r.) międzynarodowy handel towarami i usługami (suma eksportu i importu) wzrósł z 10% PKB w 1970 r. do około 20% w 1998 r. W Japonii (PKB = 5,15 bln USD), której PKB stanowi około dwóch trzecich PKB Stanów Zjednoczonych, handel stanowi nieco ponad 14% PKB. W Niemczech (PKB = 2,37 bln USD), których PKB stanowi nieco mniej niż połowę PKB Japonii, handel stanowi około 40% PKB. W przypadku Tajwanu (PKB = 0,27 bln USD) handel stanowi aż 82% PKB. Te statystyki handlowe odnoszą się do PKB kraju. Jednak w ujęciu bezwzględnym w dolarach, niewielki względny odsetek handlu w dużej gospodarce nadal przekłada się na duże wolumeny handlu. Wartość eksportu i importu w przeliczeniu na mieszkańca to kolejna ważna statystyka dla celów marketingowych, ponieważ przedstawia ona, średnio, w jakim stopniu każda osoba jest zaangażowana w handel międzynarodowy lub od niego zależna. Na przykład osoby prywatne (konsumenci i firmy) w Stanach Zjednoczonych i Japonii zazwyczaj znajdują krajowe źródła zaopatrzenia, ponieważ ich gospodarki są zróżnicowane i niezwykle duże. Wartość eksportu i importu w przeliczeniu na mieszkańca w Stanach Zjednoczonych wynosi odpowiednio 3320 i 4090 dolarów. Wartości dla Japonii są bardzo podobne do tych dla Stanów Zjednoczonych, odpowiednio 3560 i 3100 dolarów. Z drugiej strony, osoby w bogatych, ale mniejszych gospodarkach są zazwyczaj bardziej uzależnione od handlu międzynarodowego, co ilustruje przykład Holandii, z eksportem i importem na mieszkańca wynoszącym odpowiednio 15 670 i 14 550 dolarów, oraz Hongkongu, z eksportem i importem na mieszkańca wynoszącym odpowiednio aż 31 080 i 31 530 dolarów. Chociaż całkowity eksport i import Chin wyniósł odpowiednio 206,8 miliarda dolarów i 168,8 miliarda dolarów (nieuwzględnione w tabeli 2), eksport i import na mieszkańca wyniosły w 1998 roku odpowiednio zaledwie 170 i 136 dolarów. Jedną z konsekwencji tych liczb jest to, że im wyższy handel na mieszkańca, tym ściślejsze powiązania gospodarki danego kraju z resztą świata. Powiązanie gospodarek w procesie specjalizacji dzięki handlowi międzynarodowemu prowadzi do tworzenia miejsc pracy zarówno w kraju eksportującym, jak i importującym. Jednak poza prostym wskaźnikiem handlu jako rosnącego odsetka PKB danego kraju, kryje się o wiele bardziej interesujące pytanie o wpływ rosnącego handlu na gospodarkę kraju. Kraj, który odnosi sukcesy w handlu - czyli wytwarza towary i usługi, które kupują inne kraje, a sam kupuje towary i usługi od innych krajów - wykazuje naturalną skłonność do konkurowania na rynku światowym. Zagrożenie ze strony potencjalnego zagranicznego konkurenta stanowi silną zachętę dla firm i krajów do inwestowania w technologie i rynki, aby utrzymać konkurencyjność. Ponadto, poza przepływami handlowymi, bezpośrednie inwestycje zagraniczne, inwestycje portfelowe i codzienne przepływy finansowe na międzynarodowych rynkach pieniężnych wywierają głęboki wpływ na gospodarki krajów, które pozornie mogą być całkowicie odrębne.
ZAGRANICZNE INWESTYCJE BEZPOŚREDNIE
Zagraniczne inwestycje bezpośrednie - czyli inwestycje w zakłady produkcyjne i usługowe w obcym kraju - to kolejny aspekt rosnącej integracji gospodarek narodowych. W latach 1990-1997 wartość handlu międzynarodowego wzrosła o niecałe 60 procent w ujęciu dolarowym, podczas gdy zagraniczne inwestycje bezpośrednie wzrosły prawie dwukrotnie w tym samym okresie. Większość tych inwestycji trafiała z jednego kraju rozwiniętego do drugiego, ale coraz większa ich część trafia obecnie do krajów rozwijających się, głównie do Azji. Całkowity roczny napływ zagranicznych inwestycji bezpośrednich na świecie osiągnął 400 miliardów dolarów w 1997 roku. Napływy do krajów rozwijających się w 1997 roku wyniosły 149 miliardów dolarów, co stanowiło 37 procent wszystkich globalnych zagranicznych inwestycji bezpośrednich, w porównaniu z 34 miliardami dolarów, czyli 17 procentami wszystkich zagranicznych inwestycji bezpośrednich, w 1990 roku. W przeszłości zagraniczne inwestycje bezpośrednie były uważane za alternatywę dla eksportu, aby uniknąć barier celnych. Jednak obecnie zagraniczne inwestycje bezpośrednie i handel międzynarodowy stały się komplementarne. Na przykład firma Dell Computer wykorzystuje fabrykę w Irlandii do dostarczania komputerów osobistych do Europy zamiast eksportować je z Austin w Teksasie. Podobnie Honda, japoński producent samochodów z dużą fabryką w Marysville w stanie Ohio, jest największym eksporterem samochodów ze Stanów Zjednoczonych. Wraz z inwestowaniem przez firmy w zakłady produkcyjne i dystrybucyjne poza swoimi krajami macierzystymi, aby ekspansjować na nowe rynki na całym świecie, zwiększyły one zasoby zagranicznych inwestycji bezpośrednich. Wzrostowi bezpośrednich inwestycji zagranicznych sprzyjają również wysiłki wielu rządów krajowych, mające na celu przyciągnięcie korporacji międzynarodowych, oraz wpływ, jaki rządy dużych rynków o dużym potencjale, takich jak Chiny i Indie, mają w zapewnianiu dostępu do rynku korporacjom międzynarodowym. Czasami tarcia handlowe mogą również sprzyjać bezpośrednim inwestycjom zagranicznym. Inwestycje japońskich firm w Stanach Zjednoczonych są w pewnym stopniu pochodną nierównowagi handlowej między tymi dwoma krajami i wynikającej z tego presji rządu USA na Japonię, aby podjęła działania w celu zmniejszenia deficytu w handlu dwustronnym. Ponieważ większość deficytu handlowego USA z Japonią przypisuje się japońskim samochodom eksportowanym z Japonii, japońscy producenci samochodów, tacy jak Honda, Toyota, Nissan i Mitsubishi, rozszerzyli swoją lokalną produkcję, otwierając zakłady produkcyjne w Stanach Zjednoczonych. Ta strategia lokalizacji zmniejsza podatność japońskich producentów samochodów na retorsje ze strony Stanów Zjednoczonych na mocy przepisów Super 301 ustawy Omnibus Trade and Competitiveness Act z 1988 roku.
INWESTYCJE PORTFELOWE
Rosnąca integracja gospodarek wynika również z inwestycji portfelowych (lub inwestycji pośrednich) w krajach zagranicznych oraz z przepływów pieniężnych na międzynarodowych rynkach finansowych. Inwestycje portfelowe odnoszą się do inwestycji w krajach zagranicznych, które można wycofać w krótkim terminie, takich jak inwestycje w akcje i obligacje zagraniczne. Na międzynarodowych rynkach finansowych granice między państwami praktycznie zniknęły. Ogromne ilości pieniędzy, którymi obraca się codziennie, zaczęły żyć własnym życiem. Kiedy rozpoczął się handel walutami obcymi, stanowił on dodatek do międzynarodowych transakcji handlowych dotyczących towarów i usług - banki i firmy kupowały i sprzedawały waluty w celu realizacji transakcji eksportowych lub importowych lub zabezpieczenia się przed wahaniami kursów walut będących przedmiotem transakcji handlowej. Jednak na dzisiejszych międzynarodowych rynkach finansowych inwestorzy zazwyczaj handlują walutami bez bazowej transakcji handlowej. Handlują na rachunkach banków i instytucji finansowych, w których pracują, głównie w oparciu o codzienne wiadomości o inflacji, stopach procentowych, wydarzeniach politycznych, wahaniach na rynkach akcji i obligacji, podaży i popytu na towary itd. Tygodniowy wolumen międzynarodowego handlu walutami przewyższa roczną wartość handlu towarami i usługami. Skutkiem tego trendu jest to, że wszystkie kraje posiadające nawet częściowo wymienialne waluty są narażone na wahania na rynkach walutowych. Wzrost wartości lokalnej waluty spowodowany tymi codziennymi przepływami w stosunku do innych walut powoduje wzrost kosztów eksportu (przynajmniej w krótkim okresie) i może zwiększyć deficyt handlowy lub zmniejszyć nadwyżkę handlową. Rosnąca wartość waluty zniechęca również do inwestycji zagranicznych w danym kraju i sprzyja odpływowi inwestycji. Może również sprzyjać obniżeniu stóp procentowych w danym kraju, jeśli bank centralny tego kraju chce utrzymać kurs walutowy, a obniżenie stopy procentowej pobudziłoby lokalne inwestycje. Ciekawym przykładem jest kryzys w Meksyku na początku 1995 roku i masowa dewaluacja peso, pogłębiona przez wycofanie kapitału przez zagranicznych inwestorów. Gwałtowna deprecjacja wielu walut azjatyckich w latach 1997-1999, znana jako azjatycki kryzys finansowy, jest również przykładem wpływu tych krótkoterminowych wahań kursu walutowego. Obecnie wpływ tych krótkoterminowych wahań kursu walutowego jest znacznie silniejszym czynnikiem determinującym kursy walut niż inwestycja japońskiego lub niemieckiego producenta samochodów. Pomimo swojej wielkości gospodarczej, Stany Zjednoczone nadal są stosunkowo bardziej odizolowane od gospodarki światowej niż inne kraje. Większość konsumpcji Amerykanów jest produkowana w Stanach Zjednoczonych - co oznacza, że przy braku reakcji łańcuchowej z zagranicy Stany Zjednoczone są stosunkowo bardziej odizolowane od wstrząsów zewnętrznych niż, powiedzmy, Niemcy i Chiny. Dominującą cechą gospodarki światowej jest jednak gwałtowna zmiana względnego statusu produkcji gospodarczej różnych krajów. W 1830 roku same Chiny i Indie odpowiadały za około 60 procent światowej produkcji przemysłowej. Jednak udział w światowej produkcji przemysłowej około dwudziestu krajów, które dziś znane są jako bogate gospodarki przemysłowe, wzrósł z około 30 procent w 1830 roku do prawie 80 procent w 1913 roku. W latach 80. XX wieku gospodarka USA była określana jako "chwiejna" lub nawet "upadająca", a wielu ekspertów przewidywało, że Azja, z Japonią na czele, stanie się wiodącą gospodarką regionalną w XXI wieku. Następnie azjatycki kryzys finansowy z końca lat 90. XX wieku zmienił otoczenie gospodarcze świata; obecnie gospodarka USA rośnie w szybszym tempie niż gospodarka jakiegokolwiek innego kraju rozwiniętego. W ostatnich latach gospodarki Stanów Zjednoczonych i Europy Zachodniej stały się bliźniaczymi silnikami gospodarki światowej, napędzanymi między innymi zwiększonym handlem i inwestycjami w wyniku ciągłej deregulacji, ulepszeń technologicznych i fuzji transatlantyckich. Oczywiście, dekada to długi okres w ciągle zmieniającej się gospodarce światowej; i faktycznie, żaden kraj nie utrzymał swojej kondycji gospodarczej w sposób ciągły.
Internet to technologia i system komunikacji elektronicznej, jakich świat nigdy wcześniej nie widział. Niektórzy twierdzą wręcz, że Internet jest najważniejszą innowacją od czasu wynalezienia prasy drukarskiej.
HISTORIA INTERNETU
Internet powstał w wyniku zimnej wojny. W połowie lat 60. XX wieku stało się oczywiste, że istnieje potrzeba stworzenia odpornego na bomby systemu komunikacji elektronicznej. Opracowano koncepcję połączenia komputerów w całym kraju za pomocą kabli lub przewodów w systemie rozproszonym, tak aby w przypadku odcięcia niektórych części kraju od innych, wiadomości nadal mogły być przesyłane. Początkowo połączony był tylko rząd federalny i kilka uniwersytetów, ponieważ Internet był zasadniczo awaryjnym wojskowym systemem łączności, obsługiwanym przez Agencję Zaawansowanych Projektów Badawczych Departamentu Obrony (ARPA). Całość systemu nazywano ARPANET. ARPA była połączona z komputerami w grupie czołowych uniwersytetów badawczych, które otrzymały dofinansowanie z ARPA. Pierwsze cztery uniwersytety podłączone do ARPANET to Uniwersytet Kalifornijski w Los Angeles, Uniwersytet Stanforda, Uniwersytet Kalifornijski w Santa Barbara i Uniwersytet Utah. W ten sposób narodził się Internet. Dzięki koncepcji opracowanej
przez Larry′ego Robertsa z ARPA i Glena Kleinrocka z UCLA, zwanej przełączaniem pakietów, Internet mógł stać się systemem zdecentralizowanym, co zapobiegłoby zniszczeniu jakiegokolwiek scentralizowanego systemu na dużą skalę. System umożliwiał różnym typom komputerów od różnych producentów przesyłanie między sobą wiadomości. Komputery po prostu przesyłały sobie informacje w standardowym pakiecie protokołu. Informacje adresowe zawarte w tych pakietach informowały każdy komputer w łańcuchu, dokąd pakiet ma trafić. Wraz z rozwojem Internetu dodawano coraz więcej możliwości. Program o nazwie Telnet umożliwiał zdalnym użytkownikom uruchamianie programów i komputerów w innych lokalizacjach. Protokół transferu plików (FTP) umożliwiał użytkownikom przesyłanie plików danych i programów. Programy Gopher, opracowane na Uniwersytecie Minnesoty i nazwane na cześć maskotki uniwersytetu, umożliwiały dostęp do zasobów danych w Internecie za pomocą menu. Wyszukiwarki takie jak Archie i Wide Area Index Search (WAIS) umożliwiały użytkownikom przeszukiwanie licznych bibliotek i indeksów Internetu. W latach 80. XX wieku pracownicy uniwersytetów, laboratoriów badawczych, firm prywatnych i bibliotek doświadczyli rewolucji sieciowej. W Internecie działało ponad trzydzieści tysięcy komputerów-hostów i modemów. Prekursorem Internetu był Bitnet, sieć obejmująca praktycznie wszystkie główne uniwersytety na świecie. Poczta elektroniczna stała się powszechna i tania, ponieważ Internet jest pasożytem wykorzystującym istniejące, wielomiliardowe sieci telefoniczne jako nośniki. W 1972 roku Ray Tomlinson wynalazł pocztę elektroniczną, która stała się możliwa dzięki FTP. Dzięki poczcie elektronicznej i FTP tempo współpracy między naukowcami z uczestniczących wydziałów informatyki znacznie wzrosło. Choć wówczas nie zdawano sobie z tego sprawy, Internet narodził się. Protokół TCP (Transmission Control Protocol) dzieli duże ilości danych na pakiety o stałym rozmiarze, sekwencyjnie je numeruje, aby umożliwić ich ponowne złożenie po stronie odbiorcy, i przesyła pakiety przez Internet za pomocą protokołu internetowego. Po wynalezieniu poczty elektronicznej, wkrótce pojawiły się listy mailingowe. Była to technika, dzięki której identyczna wiadomość mogła być automatycznie wysyłana do dużej liczby osób. Internet stale się rozwija. Szacuje się, że w Stanach Zjednoczonych co miesiąc korzysta z niego prawie 65 milionów dorosłych. Obecnie Internetem nie zarządza nikt. Chociaż istnieją podmioty nadzorujące system, "nikt nim nie rządzi". Pozwala to na swobodny transfer i przepływ informacji na całym świecie. W 1984 roku Narodowa Fundacja Nauki (NSF) opracowała sieć NSFNET. Później zaangażowały się NASA, Narodowe Instytuty Zdrowia i inne organizacje, a węzły w Internecie podzielono na podstawowe odmiany, które są używane do dziś. Odmiany te są pogrupowane według sześciu podstawowych domen internetowych: GOV, MIL, EDU, COM, ORG i NET. Sama sieć ARPANET formalnie wygasła w 1989 roku, padając ofiarą własnego sukcesu, a standardy TCP/IP (Transfer Control Protocol/Internet Protocol) w sieciach komputerowych mają obecnie charakter globalny. Gdyby rozwój Internetu zatrzymał się w tym momencie, prawdopodobnie nadal korzystalibyśmy z niego głównie do poczty elektronicznej. Jednak w 1989 roku wydarzył się drugi cud. Tim Berners-Lee, inżynier oprogramowania w laboratorium fizycznym CERN w Szwajcarii, opracował zestaw akceptowanych protokołów wymiany informacji w Internecie i utworzono konsorcjum użytkowników - tworząc w ten sposób World Wide Web, standardowy język kodowania informacji. Przyjęto język znaczników hipertekstu (HTML). Berners-Lee zaproponował, aby pomysł ten stał się globalny i łączył wszystkie dokumenty w Internecie za pomocą hipertekstu. Pozwala to użytkownikom na przechodzenie między dokumentami za pomocą wyróżnionych słów. Inne standardy sieciowe, takie jak adresy URL (Universal Resource Language) na stronie internetowej i protokół HTTP (Hypertext Transfer Protocol), również są wynalazkami Bernersa-Lee. Berners-Lee mógł być niezwykle bogaty dzięki swojemu wynalazkowi, ale pozostawił budowanie fortuny innym, ponieważ "chciał przeprowadzić rewolucję właściwie". W rezultacie wynalazku Bernersa-Lee, w 1993 roku grupa na Uniwersytecie Illinois, kierowana przez Marka Andreesena, napisała aplikację graficzną o nazwie Mosaic, która miała ułatwić korzystanie z sieci. W następnym roku kilku studentów z tej grupy, w tym Andreesen, po ukończeniu studiów w maju, współzałożyło firmę Netscape i wydało przeglądarkę internetową w listopadzie 1994 roku. Sieć internetowa ułatwia korzystanie z Internetu i przyniosła dwie ogromne korzyści. Do czasu pojawienia się sieci Internet komunikował jedynie tekst, ale sieć umożliwia wymianę niezakodowanej grafiki, grafiki kodowanej kolorami, kolorowych fotografii i projektów, a nawet wideo i dźwięku; i formatuje tekst drukowany do elastycznych stron typograficznych. Sieć WWW umożliwia również korzystanie z hiperłączy, dzięki którym użytkownicy mogą kliknąć określone słowa lub frazy, aby wyświetlić linki do innych informacji lub obrazów objaśniających kluczowe słowa lub frazy. Dzięki sieci WWW i przeglądarkom internetowym znalezienie informacji w Internecie i sieci WWW stało się łatwe. Opracowano różne wyszukiwarki, które indeksują i pobierają te informacje.
KORZYSTANIE Z INTERNETU
Jak korzystać z Internetu? Po pierwsze, potrzebny jest komputer z połączeniem ze światem zewnętrznym - modemowym, światłowodowym, takim jak w lokalnej telewizji kablowej, lub bezprzewodowym, które staje się coraz ważniejsze. Użytkownik jest następnie połączony z systemem połączonych sieci komputerowych, które okrążają cały glob, umożliwiając szeroki wachlarz usług transmisji danych, w tym pocztę elektroniczną, przesyłanie danych i plików, grupy dyskusyjne i czaty, a także wszelkiego rodzaju grafikę, dźwięk i wideo. Należy wybrać odpowiednie narzędzie do wykonania każdego zadania. Dlatego też, należy zrozumieć narzędzia, które pozwolą mu poruszać się po tej informacyjnej autostradzie. Internet znajduje się w cyberprzestrzeni; można go sobie wyobrazić jako szereg planet, z których każda ma unikalny rodzaj programu danych lub innego rodzaju usługi informacyjnej. Jedyny problem polega na tym, że język komunikacji każdej planety jest inny i potrzeba kilku aplikacji i narzędzi komunikacyjnych. Użytkownik jest odpowiedzialny za wybór odpowiedniego programu lub narzędzia, aby uzyskać dostęp do tego, czego potrzebuje. Każdy program wykonuje określone zadanie, od zapewnienia podstawowych połączeń, przez dostęp do zasobów, po przygotowywanie wiadomości e-mail. Typowe narzędzia internetowe obejmują:
1. Oprogramowanie do połączeń i logowania. To oprogramowanie zapewnia dostęp do logowania w cyberprzestrzeni. Oprogramowanie konfiguruje połączenia z Internetem. To oprogramowanie jest zazwyczaj dostarczane przez dostawcę usług internetowych.
2. Przeglądarka internetowa. Przeglądarki internetowe są zazwyczaj bezpłatne. Najpopularniejszymi przeglądarkami internetowymi są Internet Explorer firmy Microsoft i Navigator firmy Netscape. Te programy można zazwyczaj pobrać bezpłatnie; są one również dołączone do pakietów biurowych, takich jak Microsoft Office.
3. Menedżer i edytor poczty e-mail. Aby komunikować się za pośrednictwem poczty e-mail, użytkownicy muszą posiadać menedżera i edytor poczty e-mail. Ten edytor tworzy, wysyła, odbiera, przechowuje i porządkuje wiadomości e-mail. Wiele z tych edytorów poczty e-mail można pobrać bezpłatnie z Internetu. Jednym z najpopularniejszych edytorów jest Eudora. Jednak pakiety biurowe zazwyczaj zawierają również menedżera poczty e-mail.
Program Custom Connect rozpoczyna procedurę logowania do Internetu za pomocą protokołu TCP/IP. Jest to zestaw standardów i protokołów służących do udostępniania danych między komputerami a Internetem. Po nawiązaniu połączenia przez protokoły użytkownik musi potwierdzić swoją tożsamość i autoryzację do korzystania z usług internetowych. Dostawca usług internetowych ma swoją własną tożsamość w Internecie, znaną jako domena. Nazwy domen, jak wspomniano wcześniej, to wszystkie nazwy wymienione po prawej stronie znaku @ w adresie z rozszerzeniem, takim jak .com lub .edu. Następnie komputer wysyła i odbiera dane z komputera-hosta przez Internet. Program taki jak Telnet dzieli dane na pakiety. Protokoły określają, jak pakiety powinny być warstwowane, czyli pakowane. Różne warstwy pakietów zaspokajają różnorodne potrzeby programowe i sprzętowe w zakresie przesyłania informacji przez różne sieci i łącza komunikacyjne. Po prawidłowym zalogowaniu użytkownik może rozpocząć korzystanie z usług internetowych. Po zakończeniu sesji roboczej online użytkownik musi wylogować się z Internetu i, w zależności od okoliczności, rozłączyć się z dostawcą usług internetowych. Jeśli użytkownik korzysta z usług dostawcy usług edukacyjnych, takiego jak uczelnia lub inna instytucja edukacyjna, prawdopodobnie wyloguje się, ale nie rozłączy, ponieważ usługa jest usługą wirtualną świadczoną wielu innym osobom na terminalu lub komputerze. Jeśli korzysta się z usług prywatnego, komercyjnego dostawcy usług, należy upewnić się, że komputer został całkowicie rozłączony z dostawcą, w przeciwnym razie opłaty mogą nadal obowiązywać. Internet dał początek zupełnie nowej branży zwanej handlem elektronicznym lub czasami biznesem elektronicznym. Firmy sprzedają innym firmom i konsumentom w Internecie, korzystając z bezpiecznych witryn internetowych. Obecna wartość rynkowa amerykańskich firm osiągających znaczne przychody z Internetu za pośrednictwem handlu elektronicznego przekracza 3 biliony dolarów i rośnie z roku na rok. Szacuje się, że do 2003 roku ponad 88% wszystkich firm będzie czerpać część swoich przychodów z handlu elektronicznego. Mówi się również, że rozwój Internetu i handlu elektronicznego był jedną z głównych przyczyn silnej gospodarki Stanów Zjednoczonych. W ten sposób Internet stał się jedną z najbardziej produktywnych technologii w najnowszej historii. Internet może przesyłać informacje z niemal dowolnego miejsca na świecie do niemal dowolnego innego miejsca w ciągu kilku sekund. Internet zmienił ludzkie postrzeganie szybkości, z jaką dzieją się rzeczy. Ludzie mówią teraz, że "zrobili to w czasie internetowym", co oznacza, że coś zostało wykonane w ułamku tradycyjnego lub oczekiwanego czasu. Internet staje się główną przyczyną kompresji czasu.
PRZYSZŁOŚĆ INTERNETU
Co przyniesie przyszłość Internetowi? Przewiduje się, że w przyszłości prawie każde urządzenie podłączone do Internetu będzie komunikować się bezprzewodowo. Zamiast światłowodów czy przewodów miedzianych, informacje będą łączyć się i przekazywać za pomocą niskonapięciowych ogniw radiowych. Przed 2010 rokiem ponad połowa amerykańskich domów będzie miała co najmniej jedno niskonapięciowe ogniwo radiowe podłączone do łącza internetowego. Przyszłość wydaje się być związana z bezprzewodowym Internetem ze względu na problemy z przepustowością w przypadku kabli lub przewodów. Komputery osobiste będą się nadal rozwijać, ale pojawi się wiele innych inteligentnych urządzeń internetowych. Przewiduje się, że pojawią się zegarki internetowe, które będą dopasowywać osobę do wiadomości. Telewizory będą nagrywać nasze ulubione programy po wyświetleniu monitu. Różne urządzenia kuchenne będą uruchamiane za pomocą poleceń internetowych. Samochód osobowy będzie również mobilnym magazynem informacji osobistych. Samochody będą miały wewnętrzną łączność i z łatwością pomieszczą bardzo dużą pamięć podręczną z ulubioną muzyką, rozmowami, grami interaktywnymi i zdjęciami, a pasażerowie będą mieli możliwość patrzenia przez okno na świat rzeczywisty lub w okno wyświetlacza w samochodzie. Podobnie jak odkrywcy, którzy odkryli nowe kontynenty, ludzie dopiero zaczynają zdawać sobie sprawę z pełnego wpływu Internetu na informację, przestrzeń i czas.
Pierwszą globalną siecią elektroniczną był Internet. Obecnie istnieją również nowe podsystemy internetowe, zwane intranetem i extranetem. Chociaż użytkownicy komputerów mogą korzystać ze wszystkich trzech systemów w ciągu jednego dnia, istnieją między nimi pewne istotne podobieństwa i różnice. Aby ułatwić zrozumienie tych trzech systemów, posłużmy się przykładem Sally, pracownicy salonu samochodowego, która korzysta z komputera. Sally może korzystać z Internetu, aby sprawdzić rozkłady lotów i zaplanować nadchodzące spotkanie sprzedażowe. Sally może również korzystać z intranetu, aby sprawdzić dostawę samochodów do salonu. Sally może również korzystać z extranetu, aby sprawdzić aktualne ceny hurtowe opon.
DEFINICJE I POWIĄZANIA
Internet Chociaż Internet istnieje od ponad ćwierć wieku, jest obecnie szeroko stosowany w szkołach, domach i miejscach pracy. Encyklopedia internetowa CMP Net definiuje Internet jako:
(1) Duża sieć złożona z wielu mniejszych sieci. (2) "Internet" składa się z ponad 100 000 połączonych ze sobą sieci w ponad 100 krajach, obejmujących sieci komercyjne, akademickie i rządowe. Pierwotnie opracowany dla wojska, Internet stał się szeroko wykorzystywany w badaniach akademickich i komercyjnych
Obecnie Internet stał się skomercjalizowany, stając się światową autostradą informacyjną, dostarczającą informacji na każdy temat znany ludzkości.
Intranet. W tym samym opracowaniu intranet zdefiniowano jako:
Wewnętrzną witrynę internetową, która służy pracownikom przedsiębiorstwa. Chociaż strony intranetu mogą zawierać linki do Internetu, intranet nie jest witryną dostępną dla ogółu społeczeństwa.
Zwróć uwagę na istotną różnicę: intranet to informacja dostępna tylko dla pracowników wewnętrznych lub partnerów korporacyjnych. Do typowych zastosowań intranetu należą dostęp do harmonogramów produkcji, zapasów, spotkań i szkoleń. Zatem, jeśli pracowałeś w firmie A, mogłeś mieć łatwy dostęp do informacji publikowanych na stronie internetowej firmy. Jednak większość intranetów obejmuje również partnerów organizacji. Załóżmy, że firma A produkuje monitory komputerowe wykorzystujące lampy elektronopromieniowe (CRT) produkowane przez firmę B. Firma A niewątpliwie prowadzi dokładny inwentarz posiadanych lamp; możliwe jest również, że firma B zostanie poproszona o monitorowanie tych danych, aby w razie potrzeby automatycznie wysyłać lampy CRT do firmy A. Oczywiście firma B nie uzyska dostępu do innych danych online należących do firmy A.
Extranet. Encyklopedia internetowa CMP Net definiuje extranet jako:
Strona internetowa przeznaczona dla obecnych klientów, a nie dla ogółu społeczeństwa. Zapewnia dostęp do płatnych badań, bieżących inwentaryzacji i wewnętrznych baz danych, a więc praktycznie do wszelkich informacji prywatnych i nieupublicznionych. Extranet wykorzystuje publiczny Internet jako system transmisji, ale wymaga podania hasła, aby uzyskać do niego dostęp.
Chociaż firma A umożliwia publiczny dostęp do swojej strony internetowej przez Internet, nie zawiera ona informacji szczególnie poufnych. Posiada intranet, do którego dostęp mają tylko pracownicy i wybrane firmy, z którymi ma podpisane umowy partnerskie. Posiada również stronę internetową extranet, do której dostęp mają tylko jej klienci.
ZASTOSOWANIA I PROBLEMY
Dostęp . Dostęp poszczególnych pracowników do Internetu, intranetów i extranetów jest zróżnicowany. Obecnie pracownicy w wielu organizacjach używają wszystkich tych terminów zamiennie, chociaż wielu z nich powszechnie używa terminu "Internet" (lub "Netscape" lub "Internet Explorer") w odniesieniu do czegoś, co technicznie rzecz biorąc znajduje się w intranecie lub extranecie. Istotną kwestią dla administratorów sieci (lub webmasterów) jest dostęp. Aby zapewnić właściwy dostęp, muszą oni dokładnie wiedzieć, kto ma uprawnienia do korzystania z Internetu, intranetu i/lub extranetu. Decydenci w organizacji muszą również znać zasady, aby zapewnić, że "niewłaściwe" osoby nie uzyskają dostępu do poufnych informacji. Rodzi to istotną kwestię: czy korzyści płynące z "liberalnego" dostępu przeważają nad możliwymi negatywnymi konsekwencjami? Jak jednak zauważył Gibson (1998): "Jeśli nie możesz ufać swoim partnerom biznesowym, prawdopodobnie nie powinieneś z nimi robić interesów".
Ograniczenia użytkowania Intranet lub extranet można technicznie skonfigurować na kilka sposobów. Jednym ze sposobów jest posiadanie tylko jednej witryny internetowej, ale z ograniczonym dostępem użytkowników, z dostępem autoryzowanym indywidualnie. W ten sposób osoby, które próbują uzyskać dostęp do witryny, do której nie mają odpowiednich "uprawnień", przypadkowo lub celowo, otrzymają na swoim ekranie komunikat podobny do poniższego:
Nie znaleziono. Żądany obiekt nie istnieje na tym serwerze. Użyty link jest nieaktualny, nieprawidłowy lub serwer otrzymał polecenie, aby go zablokować. Prosimy o poinformowanie administratora witryny o stronach odsyłających.
W tym przykładzie strona internetowa, której żądała dana osoba, faktycznie istnieje, ale jest dostępna tylko dla personelu posiadającego "pozwolenie" na przeglądanie informacji. Całkowicie oddzielne witryny internetowe są często projektowane dla różnych poziomów dostępu. Ponadto dostępne są również produkty dodatkowe wspomagające tworzenie intranetów, takie jak IntraNetics i "intranet w pudełku", które zawierają łącza do określonych witryn handlu elektronicznego, takich jak Staples i American Express Business Travel.
INNOWACJE W INTRANETACH
Intranet organizacji może być wykorzystywany na wiele różnych sposobów. Typowym zastosowaniem jest szkolenie, ale pojawia się również wiele nieprzewidzianych zastosowań. Ta sekcja zawiera przykłady zastosowań intranetu w organizacjach.
Szkolenia pracowników. Firma Dow Chemical Company wdraża szeroko zakrojony program szkoleniowy, wykorzystując intranet, aby zastąpić, a potencjalnie wyeliminować znaczną część miliona godzin szkoleń stacjonarnych, które obecnie oferuje. Schwartz (1999) zauważył, że Dow wydaje 80 milionów dolarów rocznie na szkolenia pracowników i kontrahentów (Dow University Online) w obszarach od bezpieczeństwa środowiskowego po kwestie zdrowotne, wykorzystując oprogramowanie do prezentacji TopClass (WBT Systems) na swoich serwerach internetowych.
Konferencje online. Wykorzystując intranet do wyjścia poza przechowywanie i udostępnianie statycznych informacji, firma Bell Atlantic nawiązała współpracę z firmą Lotus Development firmy IBM, aby zwiększyć swoją konkurencyjność w branży komunikacyjnej (Trager, 1999). Jedna z aplikacji Lotus umożliwia firmie Bell Atlantic łatwe tworzenie i dostosowywanie symulacji sali konferencyjnej online (konferencji online) do użytku w intranecie lub ekstranecie. Trager zwrócił również uwagę, że firma Bell Atlantic jest zainteresowana rozwiązaniem Lotus Sametime do współpracy w czasie rzeczywistym i przestrzenią edukacyjną do edukacji na odległość.
Nieoczekiwane rezultaty .Udostępnianie informacji, takich jak stany magazynowe i daty wysyłki, za pośrednictwem intranetu partnerom korporacyjnym doprowadziło do wzrostu efektywności. Ponadto zaszły również inne nieplanowane zmiany organizacyjne. Według Shachtmana (1998):
Pracownicy korzystają z intranetów, aby łączyć się w rozproszone grupy o różnych potrzebach i kompetencjach, które wymykają się tradycyjnym strukturom korporacyjnym. Zaawansowane intranety pozwalają ludziom organizować się wokół klastrów informacji, a nie hierarchicznych schematów, mówi Mike Gotta, dyrektor programowy w firmie badawczej Meta Group. "To przejście od bardzo sztywnego miejsca pracy do bardziej organicznej przestrzeni roboczej".
Schachtman wyjaśnia dalej, że chociaż wiedza zawsze była kojarzona z władzą, intranet szybko burzy sztywne struktury organizacyjne.
Portale .Intranety nieustannie się zmieniają, ponieważ informacje internetowe są coraz częściej wykorzystywane. Najnowszym wynalazkiem jest "portal", czyli wyszukiwarka zawierająca łatwe linki do wszelkiego rodzaju zasobów, od pogody, przez notowania giełdowe, po najnowsze wiadomości. Wyszukiwarki Yahoo, Excite, AltaVista, Lycos i wiele innych przekształciły się w "portale" w swoim stale rosnącym dążeniu do pozyskania większej liczby użytkowników. Obecnie opracowywane są portale korporacyjne, dzięki którym pracownicy korzystający z intranetu mogą łatwo i szybko znaleźć istotne informacje. Guglielmo (1998) opisał portal korporacyjny:
Koncepcja jest prosta: pracownicy firm włączają komputery i zamiast korzystać z Yahoo! lub Excite, przechodzą do wewnętrznego portalu swojej firmy, opartego na przeglądarce, gdzie otrzymują łatwe w obsłudze, bardzo szczegółowe informacje, które ułatwiają im pracę. Mogą również zorganizować podróż i zamówić materiały biurowe.
Niektóre firmy rozpoczęły już sprzedaż specjalistycznego oprogramowania do tworzenia portali korporacyjnych. Na przykład Netscape Communications Corporation, spółka macierzysta Yahoo, udziela licencji na dostosowaną wersję swojego portalu Netcenter (Guglielmo, 1998). Marty Cagan, wiceprezes ds. usług B2B w Netcenter, stwierdził:
"Naszą strategią jest wykorzystanie naszej wiedzy na temat rynku portali poprzez przekształcenie naszego własnego portalu, który w ciągu dnia roboczego jest najbardziej ruchliwą stroną na świecie, w platformę, na której mogą budować inni klienci" .
IMPLIKACJE I WPŁYW
Dostęp do informacji za pośrednictwem intranetu już radykalnie zmienił sposób komunikacji i prowadzenia działalności w organizacjach. Robert Moon, dyrektor ds. informatyki w Micros Systems, mówi: "W niecałe trzy lata przeszliśmy od sieci jako nowości do aplikacji o znaczeniu krytycznym. Teraz to ona jest naszym głównym celem" (cyt. za: Booker, 1999, s. 32). Rzeczywiście, koncepcja intranetu będzie nadal zmieniać sposób funkcjonowania organizacji, zarówno wewnętrznie, jak i zewnętrznie, w sposób niemożliwy do wyobrażenia w XX wieku.
Zrozumienie podstawowych cech różnych rodzajów akcji będzie pomocne w analizie informacji zawartych w tym wpisie. (Zobacz "Akcje"). Najważniejszym narzędziem inwestora jest informacja: informacje o cenach akcji, ruchach na rynku i trendach biznesowych. Bez rzetelnych informacji decyzje inwestycyjne są czystą spekulacją. Pierwszym miejscem, w którym należy szukać informacji o akcjach, są strony finansowe lub gazety, a najlepszym punktem wyjścia są kolumny z aktualnymi cenami akcji na jednej lub kilku głównych giełdach. Rysunek 1 przedstawia typowy notowanie akcji notowanych na jednej z głównych giełd, a poniższa lista wyjaśnia informacje zawarte na rysunku i ich znaczenie dla potencjalnych inwestorów:
1. Najwyższa i najniższa cena. Są to najwyższe i najniższe ceny zapłacone za akcje w ciągu ostatnich pięćdziesięciu dwóch tygodni. Ten wpis pokazuje, że najwyższa cena zapłacona za te akcje w poprzednim okresie wyniosła 44 USD za akcję; najniższa cena - 16 USD za akcję.
2. Akcje. Akcje są wymienione alfabetycznie według skróconej formy nazwy spółki.
3. Dywidenda. Pokazano roczną stopę dywidendy; jest to zazwyczaj szacunek oparty na poprzedniej kwartalnej lub półrocznej wypłacie. Ten wpis pokazuje, że JLJ wypłaca roczną dywidendę w wysokości 2,50 USD za akcję, czyli około 7% zysku.
4. Wskaźnik cena/zysk. Jest to stosunek ceny rynkowej akcji do rocznych zysków spółki na akcję. Jest to ważny wskaźnik sukcesu spółki i zaufania inwestorów. Nie można go obliczyć na podstawie podanych tutaj informacji. Potrzebne są inne dane.
5. Obrót akcjami. Jest to liczba akcji sprzedanych danego dnia, wyrażona w setkach. W podanym przykładzie sprzedano 3300 akcji JLJ. Liczba ta nie uwzględnia sprzedaży nieparzystych partii. Uwaga: Jeśli liczba w tej kolumnie jest poprzedzona literą "z", oznacza to rzeczywistą liczbę sprzedanych akcji, a nie setki.
6. Najwyższa i najniższa cena. Są to najwyższe i najniższe ceny zapłacone za akcje JLJ podczas sesji handlowej (tj. dnia roboczego). Najwyższa cena zapłacona za akcje JLJ wyniosła 35,25 USD za akcję; najniższa cena 34 USD za akcję. Ceny akcji są podawane w dolarach i ułamkach dolarów do 15/16. Jednak obecnie stosowany jest również nowy system dolarów i centów, wprowadzony w 2000 r.
7. Cena zamknięcia. Ostateczna cena akcji JLJ na dany dzień. W tym przypadku wyniosła 35 USD za akcję.
8. Zmiana. Różnica między ceną zamknięcia akcji w tej sesji a ceną zamknięcia z poprzedniego zamknięcia; wczorajsza cena zamknięcia wyniosłaby 34,50 USD.
Oczekiwania dotyczące przyszłego wzrostu i zysków są ujmowane za pomocą obliczeń zwanych indeksami rynkowymi. Takie indeksy stanowią w istocie podsumowanie oczekiwań. Indeksy odzwierciedlają różnorodne założenia dotyczące czynników wpływających na oczekiwania, zgodnie z oceną projektantów indeksów rynkowych. Wiele indeksów rynkowych czasami dostarcza tych samych ocen. Istnieją jednak znaczne różnice w wynikach indeksów w dłuższej perspektywie. Akcje, dzielniki i wagi wybrane dla indeksu prowadzą do różnic w dłuższej perspektywie. Niektóre z najpopularniejszych indeksów (stan na początek 2000 roku) to:
• Indeks giełdowy American Stock Exchange Composite
• Indeks Dow Jones Industrial Average
• Indeks giełdowy Nasdaq Composite
• Indeks giełdowy Nasdaq-100
• Indeks giełdowy New York Stock Exchange Composite
• Indeks Russell
• Indeks Standard and Poor′s 500
• Indeks 30-letnich obligacji skarbowych
Przyjrzymy się trzem najszerzej akceptowanym indeksom giełdowym i rodzajom akcji, które obejmują.
DOW JONES INDUSTRIAL AVERAGE
Charles H. Dow wprowadził indeks Dow Jones Industrial Average w 1896 roku, gdy rynek nie był jeszcze uważany za godne zaufania przedsięwzięcie z powodu nieuczciwych dealerów, masowej spekulacji i braku informacji. Jego średnia przyniosła zmiany w czasach, gdy ludziom trudno było zrozumieć wzloty i upadki punktów ułamkowych. Nazywa się ją średnią, ponieważ pierwotnie obliczano ją poprzez dodanie cen akcji i podzielenie ich przez liczbę akcji. Pierwsza wartość została opublikowana 26 maja 1896 roku i wyniosła 40,94. Dow bronił swojej średniej, porównując ją do położenia patyków na piasku na plaży. Jego koncepcja polegała na określaniu po każdej fali, czy przypływ nadchodzi, czy odpływa. Jeśli średnia jego akcji stopniowo rosła, mógł nazwać ten okres "rynek byka". Jeśli średnia spadała, oznaczało to, że panował "rynek niedźwiedzia". Dow Jones pozwala porównać akcje spółek przemysłowych z kierunkiem średniej. W próbach oceny lub przewidywania trendów na dużą skalę w wartościach giełdowych najczęściej cytowany jest indeks Dow Jones Industrial Average (DJIA). Termin "przemysłowy" jest nieco mylący. Pod koniec XIX wieku koleje i firmy stalowe były ważnymi korporacjami. Dziś nie mają one już dużego wpływu na "Dow". DJIA jest najczęściej wymienianym z czterech średnich Dow Jones (obejmujących akcje spółek przemysłowych, transportowych, użyteczności publicznej i średnią łączną); jest barometrem trendów giełdowych opartym na cenach akcji trzydziestu dużych amerykańskich korporacji notowanych na Nowojorskiej Giełdzie Papierów Wartościowych. Każdego dnia wahania cen tych akcji są sumowane poprzez zsumowanie cen trzydziestu akcji i podzielenie wyniku przez wyznaczony współczynnik stosowany w celu kompensacji skomplikowanych sytuacji, takich jak podziały akcji, wydzielenia i okresowe substytucje na liście używanych akcji. Aktualny dzielnik jest publikowany każdego dnia roboczego w sekcji "Pieniądze i Inwestycje" w "Wall Street Journal". W historii średniej dzielnik był wielokrotnie zmieniany, głównie w dół. To wyjaśnia, dlaczego średnia może wynosić na przykład 10 000, chociaż żadna ze spółek w średniej nie zbliża się do tego poziomu cenowego. Obecnie wzrost ceny akcji składowej o 1 dolara spowodowałby wzrost indeksu Dow Jones Industrial Average o około pięć punktów, zakładając, że ceny pozostałych dwudziestu dziewięciu spółek pozostały bez zmian.
STANDARD & POOR′S 500
Indeks Standard & Poor′s (S&P) został stworzony (w obecnej formie) w 1958 roku w celu zwiększenia popularności indeksów wśród inwestorów. Zamiast zachować dotychczasowy indeks, składający się z dziewięćdziesięciu akcji, objął on znacznie szerszy zakres, obejmujący czterysta spółek przemysłowych o dużej kapitalizacji, czterdzieści przedsiębiorstw użyteczności publicznej, dwadzieścia firm transportowych i czterdzieści firm finansowych, co uczyniło go indeksem S&P 500. W ramach ciągłego przeglądu komisja selekcyjna co roku wymienia około trzydziestu spółek. Przyczyną eliminacji spółki może być jej własna redukcja (co oznacza, że nie może być już uznawana za spółkę o dużej kapitalizacji) lub jej przejęcie lub fuzja z innym rodzajem spółki nieujętej w indeksie S&P. Liczba (współczynnik), którą można zobaczyć w dzienniku lub usłyszeć w wiadomościach finansowych, wraz z indeksami Dow Jones i Nasdaq, jest ustalana na podstawie ceny pięciuset akcji w indeksie Standard & Poor′s. Należy również wspomnieć, że indeks S&P jest ważony rynkowo. Ma to na celu zapewnienie, że żadna pojedyncza spółka ani mała grupa spółek nie będzie dominować w indeksie ani wpływać na jego obliczenia. Ważenie rynkowe jest określane poprzez pomnożenie liczby akcji spółki w obrocie przez jej cenę. Stwarza to sytuację rynkową, w której wyniki żadnej spółki nie mogą drastycznie zmienić ogólnego wyniku tego indeksu. Średnia przemysłowa Dow Jones nie jest obliczana w ten sposób, co stwarza możliwość, że wyniki pojedynczej akcji w indeksie Dow Jones mogą zmienić wartość całego indeksu w danym dniu. Należy również wziąć pod uwagę liczbę firm objętych indeksem S&P. Z pięcioma setkami akcji ważonych rynkowo, indeks ten staje się dobrym wskaźnikiem ruchów rynkowych, ponieważ odzwierciedla połączoną wiedzę tysięcy analityków i inwestorów, którzy poprzez sprzedaż i zakup akcji określają wartość rynkową akcji w indeksie.
NASDAQ COMPOSITE
Nasdaq (formalnie znany jako National Association of Securities Dealers Automated Quotations) został utworzony w 1971 roku, aby konkurować z indeksem S&P 500 i mierzyć cały zakres rynku. Jednak ze względu na znaczną część spółek z sektora zaawansowanych technologii, Nasdaq jest znacznie bardziej zmienny niż rynek akcji w ogóle, a w szczególności Dow Jones i S&P. Nasdaq nie koncentruje się wyłącznie na akcjach spółek z sektora zaawansowanych technologii; indeks obejmuje jednak osiem subindeksów branżowych - bankowość, biotechnologia, komputery, finanse, przemysł, ubezpieczenia, telekomunikacja i transport. Nasdaq nazywany jest "indeksem nowej gospodarki" w porównaniu ze "starą gospodarką" Dow Jones. Ten indeks obejmuje 5500 spółek i, podobnie jak S&P, jest ważony rynkowo, co zapewnia bardziej miarodajne dane. Wartość indeksu obliczana jest na podstawie pomiaru wartości rynkowej wszystkich akcji zwykłych notowanych na giełdzie Nasdaq. Każda zmiana wartości dowolnego papieru wartościowego w dowolnym kierunku spowoduje zmianę wartości indeksu w tym kierunku, ale tylko proporcjonalnie do jego wartości rynkowej (cena ostatniej transakcji pomnożona przez całkowitą liczbę akcji w obrocie). W 1985 roku Nasdaq wprowadził indeks Nasdaq-100, który obejmuje największe i najbardziej aktywne krajowe i międzynarodowe emisje niefinansowe notowane na giełdzie Nasdaq, w oparciu o kapitalizację rynkową. Prawdą jest, że nie da się przewidzieć, w jakim stanie będzie rynek za rok czy dwa, ale dzięki stałemu śledzeniu sytuacji i wykorzystywaniu indeksów jako przewodnika, inwestorzy mają większe szanse na rynku pełnym wahań, którego doświadczyliśmy.
Certyfikowany księgowy publiczny (CPA) to tytuł przyznawany przez stan lub inną jednostkę rządową osobom fizycznym, które mogą wykonywać zawód licencjonowanego biegłego rewidenta publicznego. Kandydat na CPA musi spełnić wymagania dotyczące wykształcenia, zdać egzaminy i uzyskać doświadczenie. Egzaminy były stosowane już w 1884 roku w celu sprawdzenia kwalifikacji księgowych i wydawania certyfikatów po ich zdaniu. W latach 80. XIX wieku dwie konkurujące ze sobą organizacje, Instytut Rachunkowości (Institute of Accounts) i Amerykańskie Stowarzyszenie Rachunkowości Publicznej (American Association of Public Accounts) [poprzednik obecnego Amerykańskiego Instytutu Biegłych Rewidentów Publicznych (AICPA)], wydawały certyfikaty na podstawie pozytywnego zdania egzaminu lub wieloletniego doświadczenia w zawodzie księgowego. Żadna z organizacji nie była w stanie skutecznie kontrolować prowadzenia działalności księgowej przez osoby niezrzeszone. W związku z tym obie konkurujące ze sobą organizacje podjęły współpracę w celu wprowadzenia w Nowym Jorku przepisów regulujących prowadzenie działalności księgowej. W 1896 roku stan Nowy Jork uchwalił pierwszą ustawę o rachunkowości, która wymagała testowania kwalifikacji osób pragnących wykonywać zawód biegłego rewidenta. Pierwszy egzamin odbył się w grudniu 1896 roku. Doprowadziło to do wydania stanowej licencji na wykonywanie zawodu biegłego rewidenta (CPA) i powstania zawodu księgowego, który wymagał wykształcenia, standardów zawodowych i kodeksu etyki zawodowej. Inne stany poszły w ślady tego samego stanu i ostatecznie pięćdziesiąt cztery jurysdykcje w Stanach Zjednoczonych (pięćdziesiąt stanów i cztery terytoria) uchwaliły przepisy wymagające egzaminowania kandydatów na licencję biegłego rewidenta (CPA). Izby Rachunkowości (Irish Boards of Accountancy) w każdej jurysdykcji są odpowiedzialne za nadzorowanie przestrzegania przepisów dotyczących rachunkowości publicznej. Trwają prace nad ujednoliceniem wymogów w różnych jurysdykcjach. Ułatwiłoby to księgowemu uzyskanie licencji w wielu stanach, co jest istotnym czynnikiem w międzystanowym wykonywaniu zawodu biegłego rewidenta. Do lat 60. XX wieku wszystkie jurysdykcje w Stanach Zjednoczonych wymagały od kandydatów na biegłych rewidentów zdania Jednolitego Egzaminu CPA, przygotowywanego przez AICPA i ocenianego przez Advisory Grading Services, usługę świadczoną od 1917 roku. Celem egzaminu jest zapewnienie komisji kwalifikacyjnych uzasadnionej gwarancji, że kandydaci, którzy zdali egzamin, posiadają poziom wiedzy technicznej, umiejętności i zdolności niezbędny do ochrony interesu publicznego. Egzamin zapewnia opinię publiczną, że biegli rewidenci rozpoczynający karierę zawodową spełnili odpowiednie minimalne wymagania i zdali egzamin o jednolitej treści, zakresie, stopniu trudności i metodologii oceniania.
AKTUALNY EGZAMIN I WYMAGANIA
Obecny egzamin to dwudniowy, piętnastoipółgodzinny egzamin, przeprowadzany dwa razy w roku - w maju i listopadzie, w środę i czwartek - w jurysdykcjach, w których egzamin jest przeprowadzany. Egzamin jest liniowy, z pytaniami w ustalonej kolejności, na które kandydaci odpowiadają ręcznie na papierowych arkuszach odpowiedzi. Pytania obejmują pytania wielokrotnego wyboru z czterema opcjami, inne formaty pytań obiektywnych oraz pytania lub problemy esejowe. Egzamin jest przeprowadzany i oceniany wyłącznie w języku angielskim. Egzamin obejmuje cztery sekcje:
1. Audyt (AUDIT): Ogólnie przyjęte standardy i procedury audytu
2. Rachunkowość i sprawozdawczość (ARE): Podatki federalne, rachunkowość zarządcza oraz rachunkowość dla organizacji rządowych i non-profit
3. Rachunkowość finansowa i sprawozdawczość (FARE): Ogólnie przyjęte zasady rachunkowości dla przedsiębiorstw
4. Prawo handlowe i obowiązki zawodowe (LPR): Obowiązki zawodowe i implikacje prawne transakcji biznesowych w kontekście rachunkowości i audytu
Sekcje AUDIT, FARE i LPR składają się w 50-60% z pytań wielokrotnego wyboru z czterema opcjami, w 20-30% z pytań o innym formacie obiektywnym oraz w 20-30% z pytań lub problemów esejowych. Sekcja ARE jest w pełni obiektywna i składa się w 50-60% z pytań wielokrotnego wyboru z czterema opcjami oraz w 40-50% z pytań o innym formacie obiektywnym. Umiejętności pisemne kandydatów są oceniane na podstawie wybranych pytań esejowych w sekcjach AUDIT, FARE i LPR egzaminu. Kandydaci na sekcje ARE i FARE otrzymują kalkulatory, ale nie na sekcje AUDIT i LPR, które wymagają minimalnych obliczeń. Od maja 1996 roku egzamin jest niejawny, co oznacza, że kandydaci nie mogą już zachowywać ani otrzymywać broszur z pytaniami po zdaniu egzaminu ani w żaden sposób ujawniać pytań egzaminacyjnych. Przed 1996 rokiem AICPA publikowało po każdym egzaminie pełny test z nieoficjalnymi odpowiedziami, a jego egzemplarze były dostępne w sprzedaży. Oprócz dwudniowego egzaminu, w kilku jurysdykcjach wymagany jest oddzielny egzamin z etyki zawodowej, który odbywa się w innym terminie niż egzamin certyfikacyjny. Wszystkie jurysdykcje stosują ten sam egzamin, ale wymagania i procedury aplikacyjne różnią się w zależności od jurysdykcji. Kandydaci muszą spełnić wymagania edukacyjne, które różnią się w zależności od jurysdykcji. Większość wymaga co najmniej tytułu licencjata ze specjalizacją z rachunkowości, ale większość jurysdykcji ustanowiła wymóg edukacyjny wynoszący co najmniej sto pięćdziesiąt godzin semestralnych. Zazwyczaj obejmuje to tytuł licencjata plus trzydzieści semestrów zajęć zaawansowanych. Data wejścia w życie tego wymogu różni się w zależności od jurysdykcji. Niektóre jurysdykcje określają liczbę wymaganych semestrów lub kursów z rachunkowości i pokrewnych przedmiotów biznesowych. W niektórych jurysdykcjach kandydaci mogą przystąpić do egzaminu przed ukończeniem wymagań edukacyjnych. Inne wymagania dotyczące przystąpienia do egzaminu różnią się w zależności od jurysdykcji, jeśli chodzi o miejsce zamieszkania, miejsce zatrudnienia i obywatelstwo amerykańskie. Kandydaci powinni skontaktować się z komisją w jurysdykcji, w której planują przystąpić do egzaminu lub planują praktykę, aby uzyskać najnowsze wymagania dotyczące wykształcenia, miejsca zamieszkania i obywatelstwa, ponieważ te wymagania mogą ulec zmianie.
ADMINISTRACJA I PRZYGOTOWANIE DO EGZAMINÓW
Komisja egzaminacyjna w każdej jurysdykcji jest odpowiedzialna za przeprowadzenie egzaminu w ramach wymogów uzyskania certyfikatu CPA. Obecnie wszystkie jurysdykcje korzystają z usług świadczonych przez AICPA w celu przygotowania i oceny egzaminu. Rada Egzaminatorów (BOE), dwunastoosobowa komisja AICPA, jest odpowiedzialna za przygotowanie egzaminu i wydawanie ocen komisjom. BOE nadzoruje podkomisje odpowiedzialne za każdą z czterech sekcji egzaminacyjnych. Komisje lub osoby przez nie wyznaczone odpowiadają za przeprowadzanie egzaminów przygotowanych przez AICPA dla kandydatów w swojej jurysdykcji. Krajowe Stowarzyszenie Stanowych Izb Rachunkowości (NASBA), w ramach swojej misji wspierania izb w wypełnianiu ich obowiązków regulacyjnych, zapewnia swoim członkom usługi w zakresie administrowania egzaminami i raportowania ocen. Dział Usług Egzaminacyjnych CPA NASBA administruje egzaminem CPA w większości jurysdykcji. Pozostałe izby albo same przeprowadzają egzaminy, albo korzystają z innych usług. Dział Oceniania Doradczego BOE ocenia egzaminy dla wszystkich pięćdziesięciu czterech komisji. Celem jest sprawiedliwe i jednolite ocenianie arkuszy egzaminacyjnych. Podstawy i wytyczne oceniania są opracowywane dla każdego egzaminu i zatwierdzane przez BOE oraz podkomisje sekcji. Każda sekcja egzaminu jest oceniana oddzielnie i przedstawiana w skali od 0 do 100 procent, przy czym minimalna ocena 75 procent jest wymagana do zdania każdej sekcji. Proces oceniania może obejmować maksymalnie dwa kolejne przeglądy każdego arkusza egzaminacyjnego. Kandydat, który otrzyma ocenę pozytywną z co najmniej dwóch sekcji, z minimalną oceną z sekcji niezaliczonych, może otrzymać warunkowe zaliczenie zdanych sekcji. Kandydaci mają ograniczoną liczbę dodatkowych możliwości zdania pozostałych sekcji. Kandydat, który nie zda pozostałych sekcji w określonym czasie, musi ponownie przystąpić do całego egzaminu. Wymagania dotyczące ponownego przystąpienia do egzaminu różnią się w zależności od jurysdykcji. Komisje wysyłają oceny kandydatom pocztą około dziewięćdziesięciu dni po przeprowadzeniu egzaminu, co jest określane jako Jednolita Data Wysłania. Komisje mogą zawrzeć w Raporcie Diagnostycznym Kandydata informacje o wynikach kandydata w każdym obszarze merytorycznym egzaminu. Komisja, która zwróci się o taki przegląd, zapewnia przegląd prac egzaminacyjnych kandydata. Celem egzaminu jest sprawdzenie wiedzy i umiejętności niezbędnych kandydatowi do wykonywania zawodu biegłego rewidenta (CPA) w zakresie planowania i wdrażania usług w zakresie rachunkowości publicznej. Egzamin wymaga od kandydatów wykazania się umiejętnościami oceny, osądu, prezentacji i podejmowania decyzji w zakresie informacji z zakresu rachunkowości i audytu. Treść czterech sekcji egzaminu opiera się na badaniach z zakresu praktyki rachunkowości publicznej. Każdemu głównemu obszarowi merytorycznym przypisuje się wartość procentową, która reprezentuje wagę przypisaną danemu tematowi lub obszarowi. Wiedza techniczna i umiejętności kandydatów są oceniane w sekcjach przedmiotowych egzaminu, a ich umiejętności pisemne są oceniane w pytaniach esejowych. Pytania egzaminacyjne pochodzą z różnych źródeł, w tym od członków Rady Edukacji (BOE), podkomisji sekcji, członków wewnętrznych zespołów egzaminacyjnych, praktyków i wykładowców. Rada Edukacji (BOE) oferuje warsztaty pisania pytań dla każdej sekcji egzaminu, aby przeszkolić praktyków i wykładowców zainteresowanych pisaniem pytań egzaminacyjnych. AICPA uczyniło egzamin niejawnym od maja 1996 roku, co pozwoliło BOE na zbudowanie obszernej bazy pytań egzaminacyjnych. Niejawny charakter egzaminu pomaga również BOE w testowaniu wstępnym i powtarzaniu pytań egzaminacyjnych, utrzymując stały poziom trudności i zwiększając wiarygodność poprzez zniechęcanie do nauki z poprzednich egzaminów. Obecnie egzamin odbywa się w formie papierowej, ale w przyszłości może on mieć formę testu komputerowego, do którego kandydat będzie mógł przystąpić po wcześniejszym umówieniu się przez cały rok, a nie tylko dwa razy w roku w ustalonym terminie.
Jednoosobowa działalność gospodarcza to najprostsza forma prowadzenia działalności gospodarczej. Nic dziwnego, że zdecydowana większość małych firm rozpoczyna swoją działalność właśnie jako jednoosobowa działalność gospodarcza. Jednoosobowa działalność gospodarcza ma tylko jednego właściciela. Może on prowadzić dowolną legalną działalność gospodarczą w dowolnym czasie i miejscu. Poza różnymi lokalnymi i stanowymi licencjami, które każda firma musi uzyskać niezależnie od formy własności, nie są wymagane żadne formalności prawne, aby założyć i prowadzić działalność. Właściciel jest odpowiedzialny za zabezpieczenie i inwestowanie środków na działalność. Środki te mogą pochodzić z istniejących lub pożyczonych środków finansowych właściciela. Urząd Skarbowy (IRS) dopuszcza jeden wyjątek od zasady "jednego jedynego właściciela". Jeśli małżonek osoby pozostającej w związku małżeńskim z jednoosobową działalnością gospodarczą pracuje w firmie, ale nie jest klasyfikowany jako wspólnik ani niezależny wykonawca, firma może nadal być uznawana za jednoosobową działalność gospodarczą i nie musi składać zeznania podatkowego od dochodu ze spółki osobowej. Ponadto jednoosobowa działalność gospodarcza pozwala uniknąć podatku od samozatrudnienia. Jeśli używane jest prawdziwe nazwisko właściciela, takie jak "John Smith Auto Repair", zazwyczaj nie ma problemu z wyborem nazwy dla jednoosobowej działalności gospodarczej. Należy jednak zachować ostrożność, jeśli rozważana jest nazwa fikcyjna. Właściciel musi zarejestrować nazwę w urzędzie powiatu, aby sprawdzić, czy nie jest ona duplikatem nazwy innej firmy. Nawet jeśli nie, właściciel musi złożyć w urzędzie powiatu lub, w niektórych stanach, do sekretarza stanu formularz "doing business as (dba)".
ZALETY
Właściciel jednoosobowej działalności gospodarczej zachowuje wszystkie zyski z działalności, ale musi również ponieść wszelkie straty. Może nawet podzielić się dowolną częścią zysków i strat z inną osobą lub osobami. Właściciel ma prawo do podejmowania wszystkich decyzji dotyczących firmy. Ponieważ nie ma współwłaścicieli, nie ma potrzeby organizowania spotkań dotyczących polityki ani tworzenia jakiejkolwiek grupy podobnej do zarządu. Właściciel oczywiście ponosi odpowiedzialność wynikającą z podjętych decyzji. Właściciel może zatrudniać pracowników lub współpracować z niezależnymi konsultantami, zachowując jednocześnie formę jednoosobowej działalności gospodarczej. Nawet jeśli pracownicy lub niezależni konsultanci zostaną poproszeni o wyrażenie opinii dotyczących decyzji biznesowych firmy, opinie te będą traktowane jedynie jako rekomendacje. Właściciel nie może zrzec się odpowiedzialności za rezultaty osiągnięte dzięki tym rekomendacjom.
WADY
Nieograniczona odpowiedzialność to główna wada jednoosobowej działalności gospodarczej. Właściciel ponosi finansową odpowiedzialność za spłatę wszystkich długów i/lub strat poniesionych przez firmę, nawet do tego stopnia, że musi poświęcić swoje osobiste lub inne interesy biznesowe, aby spłacić zobowiązania. Załóżmy na przykład, że pozew sądowy obciąża jednoosobową działalność gospodarczą długiem w wysokości 190 000 dolarów, która jest w stanie wnieść jedynie 85 000 dolarów na pokrycie zobowiązania. Załóżmy również, że właściciel posiada dom, sprzęt i inne inwestycje biznesowe o łącznej wartości 365 000 dolarów. Poniżej przedstawiono schemat odpowiedzialności właściciela:
Całkowita odpowiedzialność firmy: 190 000 USD
Zdolność firmy do uregulowania zobowiązania: 85 000 USD
Stopień, w jakim majątek osobisty właściciela (w łącznej kwocie 365 000 USD) musi zostać wykorzystany do spłaty długu w wysokości 105 000 USD. Właściciele jednoosobowych działalności gospodarczych ponoszą poważne potencjalne zobowiązania wobec klientów, konkurencji, pożyczkodawców, pracowników, a nawet rządu. Koszt ubezpieczenia od odpowiedzialności cywilnej lub obrony przed pozwem sądowym przekracza możliwości finansowe wielu firm. Z tego powodu większość osób posiadających stosunkowo duży majątek osobisty zazwyczaj nie korzysta z formy własności w ramach jednoosobowej działalności gospodarczej. Zamiast tego często stosuje się alternatywną formę własności, taką jak spółka kapitałowa lub specjalne formy partnerstwa, które eliminują nieograniczoną odpowiedzialność.
ZAKOŃCZENIE DZIAŁALNOŚCI FIRMY
Jednoosobowa działalność gospodarcza ulega rozwiązaniu z mocy prawa natychmiast po śmierci właściciela. Nawet jeśli małżonek, krewny lub przyjaciel zmarłego właściciela przejmie własność i będzie kontynuował działalność firmy pod tą samą nazwą, prawnie powstaje nowe przedsiębiorstwo. Zaleca się, aby właściciele sporządzili co najmniej testament, a najlepiej odwołalny trust, w którym wskażą beneficjenta udziałów właściciela w firmie. Jednoosobowa działalność gospodarcza ulega rozwiązaniu również w przypadku sprzedaży udziałów innej osobie lub grupie osób, porzucenia firmy przez właściciela lub ogłoszenia przez niego bankructwa. To potencjalne ryzyko nagłego rozwiązania stawia jednoosobowe działalności gospodarcze w bardzo niekorzystnej sytuacji, jeśli chodzi o przyciąganie wysoko wykwalifikowanych pracowników, którzy mogą nie chcieć wiązać swojej przyszłości z firmą, która może nagle przestać działać.
PODATEK DOCHODOWY
Przy składaniu zeznania podatkowego nie ma prawnego rozróżnienia między osobą prowadzącą jednoosobową działalność gospodarczą a osobą fizyczną. Zeznanie podatkowe od dochodów osobistych jednoosobowej działalności gospodarczej (formularz 1040) musi zawierać obliczenie podatku dochodowego od osoby prawnej, a także wszelkie dochody lub straty poniesione przez właściciela z tytułu wszelkich dodatkowych podmiotów, takich jak pracownik, inwestor itp. Jeśli na przykład podatnik osiągnie dochód netto w wysokości 65 000 USD z jednoosobowej działalności gospodarczej i 28 000 USD z inwestycji, IRS uzna, że całkowity dochód netto wynosi 93 000 USD. Z drugiej strony, jeśli jednoosobowa działalność gospodarcza poniesie stratę netto w wysokości 42 000 USD z działalności gospodarczej i 71 000 USD dochodu netto z inwestycji, IRS uzna, że całkowity dochód wynosi 29 000 USD. Jednoosobowi przedsiębiorcy korzystają z Załącznika C Formularza 1040 IRS do złożenia zeznania podatkowego od dochodu z działalności gospodarczej. Szczegóły Załącznika C mogą być bardzo skomplikowane; wielu jednoosobowych przedsiębiorców potrzebuje profesjonalnej porady na tym etapie zeznania podatkowego. W stosownych przypadkach właściciele jednoosobowych działalności gospodarczych składają formularz 4562 w celu zgłoszenia amortyzacji i umorzenia oraz formularz 8829 w celu zgłoszenia wykorzystywania miejsca zamieszkania właściciela do celów biznesowych.
RODZAJE DZIAŁALNOŚCI GOSPODARCZEJ
Przedsiębiorstwa prowadzą szeroką gamę działalności. Zgodnie z głównymi kategoriami nowego Północnoamerykańskiego Systemu Klasyfikacji Przemysłu (NAICS), rodzaje działalności gospodarczej, w które prawdopodobnie zaangażowane są małe firmy (w tym jednoosobowe działalności gospodarcze), przedstawiają się następująco:
Zakwaterowanie, usługi gastronomiczne i lokale gastronomiczne
Usługi administracyjne, pomocnicze i związane z rekultywacją odpadów
Rolnictwo, leśnictwo, łowiectwo i rybołówstwo
Sztuka, rozrywka i rekreacja
Budownictwo
Usługi edukacyjne
Opieka zdrowotna i pomoc społeczna
Informacja
Produkcja
Górnictwo
Usługi profesjonalne, naukowe i techniczne
Obsługa nieruchomości i wynajem
Organizacje religijne, grantodawcze, obywatelskie, zawodowe i podobne
Handel detaliczny
Transport i magazynowanie
Usługi komunalne
Handel hurtowy
WARUNKI SUKCESU
Sukces nie przychodzi małym przedsiębiorstwom łatwo. Władze zalecają szereg cech i działań, aby osiągnąć sukces. Osoby prowadzące jednoosobową działalność gospodarczą, które odnoszą sukcesy, powinny być silne fizycznie i psychicznie. Bardzo ważne jest, aby cieszyły się dobrym zdrowiem. Kluczowe znaczenie ma postawa właścicieli firm; powinni oni cechować się pozytywnym nastawieniem i entuzjazmem. Powinni być otwarci na rady. Muszą ciężko pracować, szczególnie w ciągu pierwszych kilku lat. Osoby prowadzące jednoosobową działalność gospodarczą powinny posiadać znaczne doświadczenie biznesowe, zwłaszcza w oferowanych przez siebie produktach lub usługach. Odpowiednie i wystarczające wykształcenie jest bardzo cenne. Można dodać inne umiejętności, takie jak umiejętność nawiązywania kontaktów z różnymi ludźmi, planowanie i organizowanie, umiejętność podejmowania i realizacji decyzji oraz inicjatywa. Często zaleca się, aby osoby prowadzące jednoosobową działalność gospodarczą wybrały rodzaj działalności, w którym posiadają zarówno umiejętności, jak i zainteresowania. Należy dokładnie przeanalizować lokalizację geograficzną pod kątem jej potencjału wzrostu. Ważne może być również, aby osoba prowadząca jednoosobową działalność gospodarczą rozważyła współpracę z partnerem. Zakładając firmę, nowy właściciel jednoosobowej działalności gospodarczej powinien:
• Zdobyć jak najwięcej informacji o oferowanym produkcie lub usłudze
• Upewnić się, że dysponuje wystarczającym kapitałem na pokrycie niezbędnych kosztów wyposażenia i budynków, a także na pokrycie kosztów operacyjnych w pierwszym roku
• Określić kwotę inwestycji i znaleźć źródła niezbędnych pożyczek
• Zabezpieczyć się przed księgowym, prawnikiem, agentem ubezpieczeniowym i bankierem
• Zapoznać się z wymaganymi licencjami, przepisami dotyczącymi zagospodarowania przestrzennego i innymi regulacjami
• Określić najbardziej pożądane typy pracowników; podjąć działania w celu ich znalezienia i zainteresowania kandydatami; oraz nauczyć się, jak radzić sobie z wszystkimi problemami
• Poznać podstawy reklamy i, w razie potrzeby, układ sklepu
• Upewnić się, że wdrożono odpowiednie formy rachunkowości i prowadzenia dokumentacji oraz dopilnować sporządzenia bilansu i rachunku zysków i strat
• Poznać wszystkie aspekty marketingu, w tym zasady ustalania udziału w rynku
Ponadto, nowy właściciel jednoosobowej działalności gospodarczej powinien sporządzić szczegółowy biznesplan. Small Business Administration przedstawia następujący zarys elementów biznesplanu:
I. Strona tytułowa
II. Oświadczenie o celu
III. Spis treści
A. Firma
1. Opis działalności
2. Marketing
3. Konkurencja
4. Procedury operacyjne
5. Personel
6. Ubezpieczenie firmy
7. Dane finansowe
B. Dane finansowe
1. Wnioski o pożyczki
2. Wykaz dóbr inwestycyjnych i dostaw
3. Bilans
4. Analiza progu rentowności
5. Prognozy dochodów pro forma (rachunek zysków i strat)
• Podsumowanie trzyletnie
• Szczegóły według miesięcy, pierwszy rok
• Szczegóły według kwartałów, drugi i trzeci rok
• Założenia, na których oparto prognozy
6. Przepływy pieniężne pro forma
C. Dokumenty uzupełniające
• Zeznania podatkowe zleceniodawców za ostatnie trzy lata
• Osobiste sprawozdanie finansowe
• Kopia umowy franczyzowej i wszystkich dokumentów uzupełniających, jeśli dotyczy
D. Kopia proponowanej umowy najmu lub kupna powierzchni biurowej
• Kopia licencji i innych dokumentów prawnych
• Kopie życiorysów wszystkich zleceniodawców
• Kopie listów intencyjnych od dostawców itp.
POSZUKIWANIE PORADY
Właściciele jednoosobowych działalności gospodarczych uważają, że konsultacja z innymi przedsiębiorcami, którzy z powodzeniem prowadzą działalność gospodarczą, jest bardzo pomocna. Wielu z nich zwraca się również o poradę do Small Business Administration (SBA), niezależnej agencji rządowej. Założona przez Kongres w 1953 roku, SBA ma obecnie biura w niemal każdym większym mieście w Stanach Zjednoczonych. Bezpłatny numer telefonu to 1-800-8-ASK-SBA. SBA, oprócz wielu innych usług, sponsoruje również Korpus Emerytowanych Menedżerów (SCORE), Centra Informacji Biznesowej (BICS) oraz Centra Rozwoju Małych Firm (SBDC).
Komitety audytu są kluczową instytucją w kontekście ładu korporacyjnego, ponieważ pomagają zarządom wypełniać ich obowiązki finansowe i powiernicze wobec akcjonariuszy. Poprzez swoje komitety audytu, zarządy ustanawiają bezpośrednią linię komunikacji między sobą a wewnętrznymi i zewnętrznymi audytorami, a także dyrektorem finansowym. Taka struktura organizacyjna i odpowiedzialność za raportowanie w środowisku wolnego i nieograniczonego dostępu umożliwia pełnym zarządom nie tylko uzyskanie pewności co do jakości sprawozdawczości finansowej i procesów audytu, ale także zatwierdzanie istotnych decyzji dotyczących polityki rachunkowości. Ponadto, silne i skuteczne komitety audytu, poprzez swoje działania planistyczne, przeglądowe i monitorujące, mogą rozpoznawać obszary problemowe i podejmować działania naprawcze, zanim takie problemy wpłyną na sprawozdania finansowe firmy i inwestorów. Zatem komitety audytu odgrywają ważną rolę w pomaganiu zarządom unikać ryzyka sporów sądowych, ponieważ takie komitety zapewniają należytą staranność związaną ze sprawozdawczością finansową.
WYMAGANIA DLA KOMITETÓW AUDYTOWYCH
Komitety audytowe od dawna są postrzegane jako ważna grupa zapewniająca większą odpowiedzialność korporacyjną w Stanach Zjednoczonych. Wartość takich komitetów została zauważona przez Kongres Stanów Zjednoczonych, Komisję Papierów Wartościowych i Giełd Stanów Zjednoczonych, Giełdę Papierów Wartościowych w Nowym Jorku i Amerykański Instytut Biegłych Rewidentów. Komitety audytowe są wymagane przez Giełdę Papierów Wartościowych w Nowym Jorku, Giełdę Papierów Wartościowych w Ameryce i Krajowe Stowarzyszenie Dealerów Papierów Wartościowych (emitentów NASDAQ/NMS). Kluczowe zalecenia i decyzje dotyczące ewolucji komitetów audytowych w Stanach Zjednoczonych obejmują następujące:
1940 :Komisja Papierów Wartościowych i Giełd (SEC) zaleciła utworzenie komitetów audytorskich. W szczególności SEC zaleciła, aby akcjonariusze wybierali audytorów na dorocznych spotkaniach, a komitet dyrektorów niebędących urzędnikami nominował audytorów. Rada Gubernatorów New York Stock Exchange wydała podobne zalecenie.
1967 :Komitet wykonawczy American Institute of Certified Public Accountants (AICPA) zalecił, aby korporacje publiczne powołały komitety audytorskie w celu nominowania audytorów i omawiania audytu.
1972 : SEC wydała wydanie z serii Accounting Series nr 123, "Stałe komitety audytorskie złożone z dyrektorów zewnętrznych".
1973 : New York Stock Exchange (NYSE) wydała białą księgę, "Rekomendacje i komentarze dotyczące sprawozdawczości finansowej dla akcjonariuszy i powiązanych kwestii", zdecydowanie zalecając, aby każda notowana spółka utworzyła komitet audytorski. 1974 SEC zmieniła rozporządzenie 14A dotyczące zasad dotyczących pełnomocnictw. Rejestrujący są zobowiązani do ujawniania w swoich oświadczeniach pełnomocniczych istnienia komitetów audytu i nazwisk członków komitetu.
1977 : Oświadczenie dotyczące polityki komitetu audytu NYSE wymagało, aby każda krajowa korporacja notowana na giełdzie ustanowiła i utrzymywała komitet audytu składający się z zewnętrznych dyrektorów przed 1 lipca 1978 r.
1987 : Krajowa Komisja ds. Oszukańczego Sprawozdawczości Finansowej zaleciła, aby SEC wymagała, aby wszystkie spółki publiczne miały komitety audytu.
1987 : Krajowe Stowarzyszenie Dealerów Papierów Wartościowych wymagało od każdego emitenta NASDAQ/NMS ustanowienia komitetu audytu.
1991 : Kongres uchwalił ustawę o poprawie Federal Deposit Insurance Corporation. Ustawa przewidywała ustanowienie komitetów audytu dla ubezpieczonych instytucji depozytowych, które mają łączne aktywa w wysokości 150 000 000 USD lub więcej.
1993 : American Stock Exchange wymagała od swoich notowanych spółek ustanowienia komitetów audytu.
1994 : American Law Institute wydał Principles of Corporate Governance: Analysis and Recommendations. Instytut zdecydowanie poparł i zatwierdził koncepcję komitetów audytowych.
1999 Independence Standards Board wydał swój pierwszy standard, "Independence Discussions with Audit Committees", który wymaga od niezależnych audytorów wydawania corocznego potwierdzenia niezależności komitetowi audytowemu spółki.
1999 : SEC zatwierdziła zmiany w swoich przepisach w celu wdrożenia kilku zaleceń Blue Ribbon Committee on Improving the Effectiveness of Corporate Audit Committees. Podmioty rejestrujące są zobowiązane do ujawnienia informacji o składzie i praktykach komitetów audytowych.
Oprócz obecności komitetów audytorskich na giełdach amerykańskich, szereg giełd w Kanadzie, Europie, Afryce, na Bliskim Wschodzie i w regionie Azji i Pacyfiku przyjęło komitety audytorskie. Wraz z rozwojem światowych rynków finansowych i notowaniem większej liczby spółek na głównych giełdach w różnych krajach, międzynarodowe zapotrzebowanie inwestorów na spójną i równą ochronę nadzoru poprzez wykorzystanie komitetów audytorskich będzie kontynuowane. Ponadto międzynarodowi inwestorzy są zaniepokojeni jakością ładu korporacyjnego ze względu na wpływ załamań finansowych i domniemanych oszustw na rynkach papierów wartościowych. W odpowiedzi szereg giełd przyjęło komitety audytorskie w celu zwiększenia przejrzystości i kompetencji w zarządzaniu notowanymi spółkami członkowskimi, aby skutecznie radzić sobie z przyciąganiem zagranicznych inwestycji kapitałowych.
ORGANIZACJA I STRUKTURA KOMITETÓW AUDYTOWYCH
Zarządy tworzą swoje komitety audytowe poprzez uchwalenie uchwały zarządu lub zmianę statutu spółki. Obowiązki komitetów audytowych powinny być jasno określone i udokumentowane w ich statucie. Chociaż zakres obowiązków komitetów audytowych jest z góry ustalony przez zarządy, komitety powinny mieć możliwość rozszerzenia swoich uprawnień za zgodą zarządu i zbadania istotnych kwestii, które mają wpływ na ujawnienia sprawozdawcze. Zarządy powinny dokładnie rozważyć następujące kwestie w odniesieniu do mianowania dyrektorów do komitetów audytowych:
1. Liczba dyrektorów: Liczba niezależnych dyrektorów mianowanych do komitetów audytowych zależy od charakteru działalności i dynamiki branży, wielkości firmy i wielkości zarządu. Ogólny konsensus wydaje się być taki, że wystarczająca jest liczba od trzech do pięciu członków.
2. Skład: Ponieważ członkowie komitetów audytowych mają różne pochodzenie i zawody, zapewniają mieszankę umiejętności i doświadczenia. Chociaż członkowie mają różne poziomy wiedzy, zdecydowanie zaleca się, aby przynajmniej jedna osoba miała doświadczenie w rachunkowości finansowej.
3. Spotkania: Komitety audytowe spotykają się od jednego do czterech razy w roku, przy czym najczęściej odbywają się trzy lub cztery spotkania.
CHARAKTER ODPOWIEDZIALNOŚCI KOMITETÓW AUDYTOWYCH
Zarządy określają rolę i obowiązki swoich komitetów audytowych. To obciążenie jurysdykcyjne jest zwykle ujawniane w pisemnym statucie komitetów audytowych, który obejmuje zakres odniesienia, taki jak oświadczenie o misji, członkostwo (wielkość i skład), okres służby, częstotliwość spotkań, zakres obowiązków i obowiązki sprawozdawcze. Komitety audytowe są przede wszystkim odpowiedzialne za jakość związaną z takimi kwestiami, jak:
• Proces audytu zewnętrznego
• Proces audytu wewnętrznego
• Kontrole wewnętrzne
• Konflikty interesów (kodeks postępowania korporacyjnego, prezentacja oszustw)
• Proces sprawozdawczości finansowej
• Kwestie regulacyjne i prawne
• Inne kwestie (sprawozdawczość okresowa, technologia informacyjna, rachunki kosztów członków zarządu)
Chociaż zarządy określiły obowiązki komitetów audytowych, zarządy mogą rozszerzyć zakres statutu komitetów audytowych; jednak zarządy powinny unikać rozwadniania obciążenia komitetów nadmiarem informacji. Uznając, że komitety audytu działają w niepełnym wymiarze godzin i pełnią funkcję doradczą dla zarządów, istotne jest, aby zarządy nakładały ograniczenia na zakres obowiązków komitetów. Takie ograniczenie zakresu umożliwia zarządom ocenę wyników komitetów, a także ochronę komitetów przed roszczeniami prawnymi za ich bezczynność, która wykracza poza ich obowiązki. Ilustrację ról i obowiązków komitetów audytu ujawnia się w rocznym oświadczeniu pełnomocnika spółki.
KOMITET NIEBIESKIEJ WSTĄŻKI ds. POPRAWY SKUTECZNOŚCI KOMITETÓW AUDYTU KORPORACYJNEGO
28 września 1998 r. Arthur Levitt, przewodniczący SEC, wygłosił przemówienie w New York University Center for Law and Business zatytułowane "The Numbers Game". Omówił kwestie związane z kwestiami jakości sprawozdawczości finansowej (np. zarządzanie zyskami, rezerwy, korekty audytu, rozpoznawanie przychodów, kreatywne rozliczanie przejęć, trwające prace badawczo-rozwojowe i opłaty restrukturyzacyjne). Ponieważ kwestie te wpływają na jakość zysków firmy i kapitalizację rynkową (np. wskaźniki cena-zysk), Levitt poprosił o odpowiedź całą społeczność finansową. W odpowiedzi na obawy Levitta, w październiku 1998 r. New York Stock Exchange i National Association of Securities Dealers utworzyły Komitet Niebiesko-Wstęgowy ds. Poprawy Skuteczności Komitetów Audytu Korporacyjnego. W lutym 1999 r. komitet wydał raport, który zawiera dziesięć zaleceń mających na celu (1) wzmocnienie niezależności komitetów audytu; (2) zwiększenie skuteczności komitetów audytu; i (3) poprawę relacji między zarządami a ich komitetami audytu, działaniami audytorów i kierownictwa. W grudniu 1999 r. SEC zatwierdziła zmiany w swoich przepisach w celu wdrożenia kilku zaleceń Blue Ribbon Committee dotyczących składu i praktyk komitetu audytu. W świetle wyżej wymienionych zaleceń Blue Ribbon Committee, jest jasne, że zakres obowiązków komitetów audytu znacznie się zwiększy. Dlatego też istotne jest, aby komitety audytu zaangażowały się w aktywny program ciągłego doskonalenia edukacyjnego, aby pomóc swoim zarządom w wypełnianiu ich obowiązków powierniczych wobec akcjonariuszy. Obowiązki Komitetu Audytu to (a) rekomendowanie Radzie Dyrektorów firmy niezależnych księgowych w celu przeprowadzenia badania rocznych sprawozdań finansowych Spółki; (b) do przeglądu z niezależnymi księgowymi i Kontrolerem proponowanego zakresu rocznego audytu, poprzednich doświadczeń audytorskich, programu audytu wewnętrznego Spółki, ostatnio zakończonych audytów wewnętrznych i innych kwestii mających wpływ na zakres audytu; (c) do przeglądu z niezależnymi księgowymi i Kontrolerem istotnych kwestii ujawnionych w trakcie audytu rocznych sprawozdań finansowych Spółki; (d) do regularnego przeglądu, czy Standardy postępowania biznesowego Spółki i Polityki korporacyjne z nimi związane zostały przekazane przez Spółkę wszystkim kluczowym pracownikom Spółki i jej spółkom zależnym na całym świecie, z zaleceniem, aby wszyscy tacy kluczowi pracownicy poświadczyli, że przeczytali, rozumieją i nie są świadomi żadnego naruszenia Standardów postępowania biznesowego; (e) do przeglądu z Kontrolerem wszelkich sugestii i zaleceń niezależnych księgowych dotyczących standardów kontroli wewnętrznej i procedur księgowych Spółki; (f) do regularnego spotykania się z przedstawicielem lub przedstawicielami Działu Audytu Wewnętrznego Spółki i do przeglądu Sprawozdań Operacyjnych Działu Audytu Wewnętrznego; i (g) składać Zarządowi sprawozdania ze swojej działalności i działań co najmniej raz w roku fiskalnym.
Stanowiska księgowe obejmują stanowiska od księgowych, którzy przechowują dane finansowe w plikach komputerowych i papierowych, po dyrektorów finansowych, którzy odpowiadają za kierowanie projektowaniem i obsługą całego systemu informacji księgowej oraz jego wyników sprawozdań finansowych
PRZEGLĄD KSIĘGOWOŚCI JAKO ZAWODU
Departament Pracy Stanów Zjednoczonych identyfikuje księgowość zasadniczo na dwóch poziomach. Na poziomie zawodowym "wykonawczym, administracyjnym i kierowniczym" uwzględnieni są księgowi i audytorzy. W ramach stanowisk "księgowych, księgowych i audytorów" dostępne są stanowiska dla osób z pewnym przeszkoleniem i zainteresowanych pracą z dokumentami finansowymi. Osoby zatrudnione w księgowości zazwyczaj oczekuje się, że będą miały silne umiejętności komputerowe, analityczne, interpersonalne i komunikacyjne, a także solidną wiedzę z zakresu księgowości związaną z poziomem stanowiska. Możliwości kariery są dostępne dla osób o różnym poziomie formalnego wykształcenia. Ogólnie rzecz biorąc, oczekuje się, że tempo wzrostu zatrudnienia w księgowości będzie średnie dla wszystkich zawodów do 2008 r., zgodnie z prognozami Departamentu Pracy USA. Wpływ technologii komputerowej będzie nadal zmieniał charakter zapotrzebowania na pracowników w księgowości, ale wzrost aktywności biznesowej i rotacja personelu zapewniają atrakcyjne możliwości dla osób, które są technicznie przygotowane i zdobywają odpowiednie doświadczenie w miejscu pracy. Księgowość to dziedzina atrakcyjna dla osób, które lubią pracować z liczbami i doceniają potrzebę nieskazitelnej dokładności oraz starannego przestrzegania zasad i harmonogramów. Coraz częściej osoby pracujące w księgowości muszą znać się na komputerach. Dlatego osoby, które mają trudności z ciągłą potrzebą nauki nowego oprogramowania i nowych metod pracy, znajdują tę dziedzinę zainteresowaną. Osoby, które zdecydują się na uzyskanie certyfikatu, muszą nadal się uczyć, ponieważ wszystkie certyfikaty mają wymóg ciągłego kształcenia zawodowego w celu utrzymania certyfikatu. Nawet księgowi, którzy nie mają certyfikatu, zapisują się na szereg programów wewnątrzfirmowych i innych typów programów, aby podnieść swoje umiejętności i wiedzę. Księgowi muszą być osobami o wysokiej uczciwości, aby osoby czytające informacje finansowe przygotowane lub zbadane przez księgowych miały zaufanie do wiarygodności takich informacji. Od księgowych posiadających certyfikaty oczekuje się przestrzegania kodeksów etyki zawodowej, które nakładają zasady i regulacje w celu zachęcania do zachowań związanych z ich pracą, które utrzymują wiarygodność sprawozdawczości finansowej, zarówno w organizacji, jak i poza nią
KARIERA DLA CERTYFIKOWANYCH KSIĘGOWYCH
Stanowiska księgowe wymagające co najmniej tytułu licencjata i certyfikatu to certyfikowany księgowy publiczny (CPA), certyfikowany księgowy zarządczy (CMA), certyfikowany audytor wewnętrzny (CIA) i certyfikowany rządowy kierownik finansowy (CGFM). Certyfikowany księgowy publiczny. Najczęstszą ścieżką dla aspirującego CPA jest rozpoczęcie pracy w firmie księgowej jako księgowy etatowy. Większość stanów w Stanach Zjednoczonych wymaga doświadczenia w audycie w celu uzyskania certyfikatu. Podczas gdy firmy księgowe publiczne zatrudniają niedawnych absolwentów programów studiów wyższych na stanowiska początkowe, takie firmy oczekują, że nowi pracownicy zdali egzamin lub planują do niego przystąpić. Podczas gdy wielu księgowych odchodzi z księgowości publicznej, aby objąć inne stanowiska w różnego rodzaju organizacjach, niektórzy pozostają w księgowości publicznej. Możliwości awansu w księgowości publicznej dla księgowych są związane z poziomem odpowiedzialności. Udani księgowi etatowi zostają starszymi; starsi stają się menedżerami; ograniczona liczba menedżerów zostaje partnerami. W wielu firmach księgowych jest więcej poziomów personelu zawodowego niż wskazano w poprzednim zdaniu. Oprócz księgowości i audytu, firmy księgowe świadczą inne usługi, takie jak doradztwo podatkowe i doradztwo zarządcze. Niektórzy księgowi decydują się na przejście do innych usług po zdobyciu doświadczenia w księgowości i audycie. Inni decydują się na założenie własnych firm; na przykład w 1998 r. 10 procent księgowych było samozatrudnionych. Wielu wybiera pracę na innych stanowiskach po uzyskaniu certyfikatu i doświadczenia. Wielu przyjmuje stanowiska w korporacjach, organizacjach non-profit i agencjach rządowych, gdzie możliwości awansu obejmują zarówno obowiązki księgowe, jak i nieksięgowe. Niektórzy zostają dyrektorami generalnymi w dużych korporacjach. Księgowi w organizacjach. Zakres stanowisk dla księgowych w organizacjach jest szeroki. Księgowi są zatrudniani w sprawozdawczości korporacyjnej, w biurach kontrolerów oraz w działach planowania i planowania strategicznego. Certyfikacja księgowych zarządczych jest zapewniana przez Institute of Management Accountants. Aby uzyskać certyfikat certyfikowanego księgowego zarządczego, kandydat musi pomyślnie zdać kompleksowy egzamin, który obejmuje księgowość i pokrewne tematy odnoszące się do szerokich obowiązków przyjmowanych przez księgowych zarządczych. Kandydat musi mieć doświadczenie zawodowe w pewnym aspekcie rachunkowości zarządczej, zanim otrzyma certyfikat. CMA mają wiele możliwości awansu w organizacjach. Są identyfikowani na stanowiskach kierowniczych, podobnie jak CPA, na szczeblu kierowniczym we własnej i innych organizacjach
Audytorzy wewnętrzni. Wielu księgowych decyduje się na pracę jako audytorzy wewnętrzni. Institute of Internal Auditors zapewnia program certyfikacji dla kandydatów, którzy chcą zostać certyfikowanymi audytorami wewnętrznymi. Certyfikacja wymaga doświadczenia jako audytor wewnętrzny. W wielu organizacjach, zwłaszcza dużych, istnieje oddzielny dział audytu wewnętrznego, który zapewnia cenny nadzór nad całą organizacją. Od audytorów wewnętrznych, którzy posiadają certyfikat, oczekuje się przestrzegania standardów zawodowych podczas wykonywania swoich obowiązków. CIA mają możliwości awansu w audycie wewnętrznym poprzez awans na stanowiska kierownicze w departamencie lub przejście do jednostek operacyjnych, gdzie przejmują obowiązki nadzorcze i wykonawcze
Księgowie rządowi. Najczęstszym certyfikatem dla księgowych rządowych jest certyfikat przyznawany przez Association of Government Accountants. Wymagane jest badanie i odpowiednie doświadczenie. Tytuł uzyskany przez pomyślnie zdanego kandydata to certyfikowany menedżer finansowy rządu. Księgowi rządowi są zatrudnieni w całym sektorze publicznym, na szczeblu federalnym, stanowym i lokalnym.
KARIERA DLA KSIĘGOWYCH BEZ CERTYFIKATU
W Stanach Zjednoczonych jest więcej księgowych, którzy nie posiadają certyfikatu, niż tych, którzy go posiadają. Spośród nieco ponad 1 miliona pracowników sklasyfikowanych jako księgowi i audytorzy w Stanach Zjednoczonych w 1998 r. mniej niż połowa posiadała certyfikat. Osoby, które studiowały rachunkowość w college′u społecznościowym, college′u biznesu lub na poziomie uniwersyteckim, są zatrudniane na stanowiskach księgowych dla początkujących. Dzięki szkoleniom i doświadczeniu w miejscu pracy wiele z tych osób awansuje na wyższe stanowiska. Wiele osób studiujących programy księgowe na uniwersytetach decyduje się nie otrzymywać certyfikatu. Inni studiują księgowość jako przedmiot fakultatywny, a następnie rozpoczynają pracę jako księgowy. Księgowi mają wiele możliwości awansu. Umiejętności techniczne i kierownicze są ważne, jeśli dana osoba aspiruje do wyższych stanowisk. Pracownicy, którzy mają wiedzę na temat księgowości i nadal się uczą, gdy nowe zasady i interpretacje księgowe są wprowadzane przez organy zawodowe, są nieocenieni dla pracodawców. Jednak takiej wiedzy muszą towarzyszyć silne umiejętności organizacyjne i interpersonalne, aby można było skorzystać z możliwości awansu.
ZMIENIAJĄCE SIĘ WYMOGI DLA KSIĘGOWYCH I AUDYTORÓW
Znajomość księgowości i audytu nadal ma kluczowe znaczenie dla wykonywania obowiązków służbowych. Jednak sama taka wiedza nie jest wystarczająca. Od księgowych oczekuje się zaawansowanych kompetencji w zakresie obsługi różnych programów księgowych i audytorskich oraz projektowania systemów informatycznych księgowych. Ponadto od księgowych i audytorów oczekuje się strategicznej analizy, interpretacji i oceny informacji z systemów, które opracowują i wdrażają. Na przykład potrzeba szerszej, ale głębszej edukacji spowodowała, że wiele stanów wymaga 150-godzinnego programu college′u dla osób, które chcą zostać CPA. Oczekuje się, że wszystkie stany będą miały taki wymóg do 2008 r.
KARIERY W KSIĘGOWOŚCI, KTÓRE NIE WYMAGAJĄ DYPLOMU STUDIÓW WYŻSZYCH
Jak wspomniano wcześniej, istnieją stanowiska w księgowości, które według Departamentu Pracy USA wymagają wykształcenia niższego niż wyższe. W różnych typach organizacji potrzeba różnych księgowych, księgowych i audytorów; w 1998 r. było 2,1 miliona takich urzędników. Zgodnie z raportem Departamentu Statystyki Pracy USA, około jedna czwarta tych pracowników pracowała w handlu hurtowym i detalicznym. Perspektywy zatrudnienia (do 2008 r.) są takie, że praktycznie wszystkie wakaty będą związane z zastępowaniem osób, które opuściły stanowiska. W tej kategorii pracowników występuje duża rotacja, ponieważ pracownicy przechodzą na inne stanowiska, w tym takie, które reprezentują awanse lub opuszczają rynek pracy. Większość stanowisk wymaga dyplomu ukończenia szkoły średniej i istnieje praktycznie w każdej branży w Stanach Zjednoczonych. Oczekuje się, że tacy pracownicy będą znać podstawowe programy komputerowe. Większość amerykańskich szkół średnich i zawodowych oferuje kursy z zakresu księgowości i aplikacji komputerowych. Ponadto szkoły biznesu, szkoły wyższe i szkoły społecznościowe mają programy, które przygotowują studentów do zdobycia podstawowej wiedzy i umiejętności potrzebnych na wielu stanowiskach księgowych. Wielu pracodawców zapewnia szkolenia w miejscu pracy w zakresie konkretnych aplikacji, które nowi pracownicy muszą zrozumieć i wykorzystać. Wielu pracodawców zapewnia szkolenia, gdy w systemie informacji księgowej zachodzą zmiany w oprogramowaniu lub systemie. Kluczowym zadaniem pracowników księgowych jest prowadzenie dokumentacji finansowej. Tacy pracownicy obliczają, klasyfikują, przetwarzają i weryfikują dane liczbowe. Na przykład w dużych i średnich firmach istnieją działy, które zajmują się rachunkami do zapłaty, należnościami lub gotówką. W przypadku takich działów firmy poszukują pracowników, którzy mają podstawową wiedzę na temat zasad rachunkowości, posiadają zorganizowany styl pracy i potrafią obsługiwać komunikację z dostawcami (w rachunkach do zapłaty), klientami (w rachunkach do zapłaty) lub personelem w dziale kadr (świadczenia, emerytury). Umiejętność pracy pod presją i dotrzymywania terminów jest również ważna na niektórych stanowiskach. Pracownicy początkujący są zazwyczaj odpowiedzialni za obsługę szczegółów transakcji i przygotowywanie harmonogramów, które pokazują wyniki przetwarzanych transakcji. Możliwości awansu są dostępne w wielu organizacjach. Osoby, które kontynuują naukę w niepełnym wymiarze godzin i wykazują się dojrzałością i mądrością w relacjach ze współpracownikami, są uważane za dobrych kandydatów na stanowiska kierownicze. Odpowiedzialni, niezawodni menedżerowie często zaczynali jako urzędnicy, ale byli gotowi uczyć się nie tylko wszystkich aspektów swojej pracy, ale także całej pracy organizacji w odniesieniu do funkcji księgowej.
KARIERY W KSIĘGOWOŚCI ZWIĄZANE Z STOPNIAMI DOKTORACYJNYMI
Programy uniwersyteckie prowadzące do uzyskania stopnia doktora w dziedzinie rachunkowości zapewniają absolwentom zatrudnienie w nauczaniu akademickim i na stanowiskach technicznych w firmach księgowych, organizacjach ustalających standardy zawodowe i innych organizacjach, w których poszukiwana jest specjalistyczna wiedza na wysokim poziomie w takich specjalizacjach, jak teoria rachunkowości, projektowanie systemów księgowych lub polityka rachunkowości. Możliwości dla księgowych z tytułem doktora odzwierciedlają potrzebę posiadania przez księgowych nowatorskiej wizji w szybko zmieniającym się globalnym środowisku biznesowym. Zaawansowane studia prowadzące do doktoratu zapewnią osobom wiedzę teoretyczną, która może opracować nowe zasady, aby zapewnić trafność informacji finansowych przekazywanych akcjonariuszom i innym osobom. Zaawansowane studia zapewnią również osobom, które mogą projektować efektywne i wydajne systemy informacji księgowej potrzebne w biznesie i administracji.
SPECJALIZACJE W DZIEDZINIE RACHUNKOWOŚCI
Organy takie jak American Institute of Certified Public Accountants (AICPA) zapewniają specjalistyczne referencje w takich dziedzinach jak osobiste planowanie finansowe i technologia informacyjna dla osób, które są księgowymi. W połowie 2000 r. AICPA rozpoczęła dyskusję na temat pewnego rodzaju międzynarodowego tytułu zawodowego biznesowego, który uzupełniałby referencje CPA. Kierownictwo AICPA uważa, że posiadacze globalnych referencji będą mieli krajowe i międzynarodowe uznanie i wiarygodność jako profesjonaliści biznesowi, którzy mogą funkcjonować na globalnym rynku. Ten wysiłek jest istotny, ponieważ nowa międzynarodowa struktura ustalania standardów księgowych ma zostać wdrożona od 1 stycznia 2001 r. Inne inicjatywy w Stanach Zjednoczonych dotyczą rachunkowości środowiskowej, księgowości śledczej, księgowości międzynarodowej i rachunkowości oszustw. Organizacje, których misje są związane ze specjalizacją, aktywnie uczestniczą w ustalaniu standardów, aby kierować praktykami, którzy zdecydują się uczestniczyć w tej dziedzinie.
POKREWNE DZIEDZINY
Rachunkowość jest często nazywana "językiem biznesu". Język ten ma szerokie zastosowanie. Wiele zawodów jest otwartych dla osób, które mają zarówno doświadczenie w księgowości, jak i umiejętności analityczne. Do zawodów, w których szkolenie z zakresu księgowości jest postrzegane jako cenne, należą urzędnicy budżetowi, urzędnicy ds. pożyczek w bankach, doradcy ds. papierów wartościowych, analitycy finansowi i agenci śledczy FBI.
Ekonomiści badają, w jaki sposób społeczeństwo wykorzystuje, reguluje i dystrybuuje swoje zasoby naturalne i wytworzone przez człowieka, takie jak ziemia, praca, surowce i maszyny, aby produkować dobra i usługi . Mówiąc prościej, badają, w jaki sposób społeczeństwo skutecznie zaspokaja swoje potrzeby ludzkie i materialne. Ekonomiści badają również, w jaki sposób systemy ekonomiczne odpowiadają na trzy podstawowe pytania: Co będziemy produkować?; Jak będziemy to produkować?; Dla kogo będziemy to produkować? Następnie kompilują, przetwarzają i interpretują odpowiedzi na te pytania ("Economists", 1997). Ekonomiści mogą analizować związek między podażą a popytem i opracowywać teorie i modele, aby pomóc przewidzieć te przyszłe związki. Pomagają zapewnić logiczny, uporządkowany sposób patrzenia na różne problemy. Próbują wyjaśnić problemy społeczne, takie jak bezrobocie, inflacja, wzrost gospodarczy, cykle koniunkturalne, polityka podatkowa lub ceny produktów rolnych. Większość ekonomistów wykorzystuje swoje umiejętności do rozwiązywania problemów w określonych obszarach, takich jak transport, praca, zdrowie, finanse, marketing, planowanie korporacyjne, energia lub rolnictwo. Przedsiębiorstwa, banki, firmy ubezpieczeniowe, związki zawodowe, agencje rządowe i inne podmioty zwracają się do ekonomistów o poradę, aby wykorzystać ją przy podejmowaniu decyzji
TRZY OGÓLNE TYPY EKONOMISTÓW
Ekonomiści teoretyczni, wykorzystując modele matematyczne, opracowują teorie, aby zbadać główne zjawiska ekonomiczne, takie jak przyczyny cykli koniunkturalnych lub inflacji lub skutki bezrobocia, cen energii lub przepisów podatkowych. Większość ekonomistów zajmuje się jednak praktycznym zastosowaniem polityki gospodarczej w takich obszarach, jak finanse, praca, rolnictwo, zdrowie i transport. Chociaż ekonomiści mają do wyboru wiele różnych karier, istnieją trzy główne ścieżki kariery: biznes, rząd i środowisko akademickie. Każdy typ ekonomisty stosuje podejście ekonomiczne do podejmowania decyzji w innym otoczeniu.
Ekonomiści biznesowi pracują w takich obszarach, jak produkcja, górnictwo, transport, komunikacja, bankowość, ubezpieczenia, handel detaliczny, przemysł prywatny, papiery wartościowe i firmy inwestycyjne, firmy doradztwa zarządczego oraz firmy badań ekonomicznych i rynkowych, a także stowarzyszenia handlowe i organizacje konsultingowe (Careers, 2000). Wiele prywatnych firm, zarówno dużych, jak i małych, rekrutuje studentów ekonomii na stanowiska. Są to stanowiska ogólnego przeznaczenia, do których pracodawcy poszukują bystrych, wysoce zmotywowanych studentów, którzy mogą nauczyć się konkretnego biznesu poprzez szkolenie w miejscu pracy. Aby zostać profesjonalnym ekonomistą biznesowym, wymagane jest szkolenie podyplomowe. Ekonomiści biznesowi wykonują takie zadania, jak prognozowanie środowiska biznesowego, interpretowanie wpływu polityki publicznej/rządowej na firmę oraz zbieranie i przetwarzanie danych. Dostarczają również kierownictwu informacji, które wpływają na decyzje dotyczące marketingu i cen produktów firmy, a także dostarczają długoterminowych i krótkoterminowych prognoz ekonomicznych ("Ekonomia", 1997). Na przykład menedżerowie firmy biznesowej mogą poprosić analityków marketingowych o podanie konkretnych informacji, na których można oprzeć politykę marketingową i cenową. Korzystając z technik modelowania ekonometrycznego, analitycy opracowują prognozy reakcji rynku na różne poziomy cen w całej branży; na podstawie tych prognoz menedżerowie mogą podejmować świadome decyzje cenowe. Ekonomia polega na świadomym, racjonalnym podejmowaniu decyzji w kwestiach ekonomicznych.
Ekonomiści rządowi pracują dla rządów federalnych, stanowych i lokalnych na wielu stanowiskach obejmujących analizę i tworzenie polityki. Rząd federalny jest głównym źródłem zatrudnienia dla ekonomistów z tytułem licencjata; informacje o wolnych stanowiskach w różnych agencjach są dostępne w Federal Employment Information Center. Tytuł licencjata z ekonomii jest dobrym kwalifikacjami na stanowisko podstawowe; osoba może awansować na wyższe stanowiska, uzyskując tytuł magistra lub awansując w ramach firmy. Istnieją stanowiska dla ekonomistów pracy, ekonomistów międzynarodowych, ekonomistów rozwoju i ekonomistów populacji, a także dla mikro- i makroekonomistów . Ekonomiści pracujący dla rządowych lub prywatnych agencji badawczych oceniają trendy gospodarcze w celu formułowania polityki w takich obszarach jak rolnictwo, leśnictwo, biznes, finanse, praca, transport, gospodarka miejska lub handel międzynarodowy i rozwój . Praca dla Kongresu jest stosunkowo nowym obszarem dla ekonomistów. Ustawodawstwo i problemy, z którymi mierzy się Kongres, stają się coraz bardziej złożone i ekonomiczne, w związku z czym członkowie Kongresu zwracają się do ekonomistów o poradę w tych kwestiach.
Akademicy to kolejny ważny obszar, w którym można znaleźć ekonomistów. Profesorowie ekonomii uczą podstawowych kursów makro- i mikroekonomii (′′ogólny obraz′′ kontra poszczególne firmy/osoby), a także kursów na zaawansowane tematy, takie jak historia gospodarcza i ekonomia pracy. Prowadzą również badania, piszą artykuły i książki oraz wygłaszają wykłady, przyczyniając się swoją wiedzą do rozwoju dyscypliny. Aby uczyć na czteroletnim college′u, niezbędne jest posiadanie tytułu doktora ekonomii. Członkowie wydziału zazwyczaj dzielą swój czas między nauczanie, badania i obowiązki administracyjne. Wielu ekonomistów akademickich ma również możliwość konsultowania się zarówno dla biznesu, jak i rządu.
POWIĄZANE ZASTOSOWANIA DYPLOMU Z EKONOMII
Ekonomia jest powszechnie uznawana za solidne przygotowanie do wielu prac i zawodów w biznesie, rządzie i prawie. Studenci ekonomii mają szeroki wachlarz możliwości wyboru i dużą elastyczność przy podejmowaniu decyzji o zawodzie. Studia licencjackie z ekonomii mogą być idealnym przygotowaniem do pracy nad tytułem magistra Administracji Biznesu, a wiele szkół biznesu zachęca studentów do wzięcia udziału przynajmniej w kilku kursach z ekonomii. Studiowanie ekonomii jest również doskonałym przygotowaniem do zostania prawnikiem; wielu uważa, że ekonomia jest jednym z najlepszych przygotowań do sukcesu w szkole prawniczej ze względu na nacisk na logiczne podejście do problemów, logiczne rozumowanie i umiejętności analityczne. Firmy wydawnicze i stowarzyszenia handlowe również zatrudniają ekonomistów. Gazety zapewniają studentom ekonomii możliwość pisania o wydarzeniach ekonomicznych i biznesowych. Zapotrzebowanie na nauczycieli ekonomii w szkołach średnich rośnie, ponieważ ekonomia staje się coraz ważniejszym i popularnym kierunkiem
WARUNKI PRACY
Ekonomiści zazwyczaj pracują w biurach lub salach lekcyjnych. Średni tydzień pracy ekonomistów rządowych wynosi czterdzieści godzin, ale harmonogramy ekonomistów akademickich i biznesowych są mniej przewidywalne. Regularne podróże mogą być konieczne w celu zbierania danych lub uczestniczenia w konferencjach lub spotkaniach. Ekonomiści międzynarodowi mogą spędzać nawet 30 procent swojego czasu na podróżach i 40 procent czasu na telefonie lub w Internecie, badając bieżące trendy w zagranicznych systemach gospodarczych (dla tej podgrupy ważne są umiejętności językowe). Ekonomiści na stanowiskach niepedagogicznych często pracują sami, pisząc raporty, przygotowując wykresy statystyczne i korzystając z komputerów, ale mogą również być częścią zespołu badawczego. Ekonomiści wydziałowi mają elastyczne harmonogramy pracy, dzieląc swój czas między nauczanie, badania, konsultacje i obowiązki administracyjne . Wysoki poziom satysfakcji można zaobserwować w całej tej dziedzinie, co zachęca do dyskusji, szczegółowej analizy i ożywionej niezgody.
POŻĄDANE CECHY OSOBISTE
Dziedzina ekonomii nagradza kreatywnych, ciekawych, analitycznych i logicznych myślicieli. Przydatne cechy ekonomisty obejmują:
• Zdolność do dokładnej pracy ze szczegółami
• Zdolność do dobrej pracy zarówno samodzielnej, jak i z innymi
• Zdolność do bycia obiektywnym i systematycznym w swojej pracy
• Cierpliwość i wytrwałość (ponieważ ekonomiści i analitycy badań marketingowych muszą spędzać długie godziny na samodzielnej nauce i rozwiązywaniu problemów)
• Skuteczne umiejętności komunikacyjne
• Ciekawość intelektualna
• Zdolność do zbierania, organizowania, interpretowania i analizowania danych
• Zdolność przywódcza
• Zdolność do jasnego przedstawiania ustaleń, zarówno ustnie, jak i pisemnie
• Zdolność do podejmowania decyzji w oparciu o doświadczenie i wykorzystanie danych
• Radość z procesu badawczego
Szczególnie w celach awansu pomocne jest kontynuowanie edukacji i uczestnictwo w kursach podyplomowych. Ważne jest również, aby umieć skutecznie pracować pod presją terminów i napiętego harmonogramu oraz być w stanie ponieść odpowiedzialność wynikającą ze świadomości, że przekazane informacje wpłyną na przyszłą politykę obecnych pracodawców .
EDUKACJA I SZKOLENIE
Osoby zainteresowane tą dziedziną powinny być w stanie pracować dokładnie i precyzyjnie, ponieważ ekonomia wymaga starannej analizy danych. Niezbędne są również dobre umiejętności komunikacyjne. Należy również wziąć udział w jak największej liczbie kursów matematyki i informatyki w szkole średniej . Podstawowym przygotowaniem do kariery w ekonomii jest kierunek studiów ekonomicznych. Studenci powinni również studiować nauki polityczne, psychologię, socjologię, finanse, prawo handlowe, stosunki międzynarodowe, statystykę, analizę regresji i ekonometrię. Osoby, które dobrze radzą sobie ze słowem pisanym i mówionym, mają znacznie wyższy wskaźnik awansu i ogólnego zadowolenia z pracy niż osoby, które nie czują się dobrze . Chociaż większość profesjonalnych ekonomistów posiada tytuł magistra lub doktora, tytuł licencjata często wystarcza na stanowisko podstawowe w biznesie lub administracji, być może w obszarze związanym z ekonomią, takim jak sprzedaż lub marketing, rozpoczęcie badań lub szkolenia administracyjne i zarządzania ("Ekonomia", 1997). Podstawowymi obowiązkami na stanowiskach podstawowych jest zbieranie, adaptacja i przygotowywanie danych. W rządzie federalnym kandydaci na stanowiska ekonomisty podstawowego muszą mieć tytuł licencjata z minimum dwudziestoma jeden semestrami godzin ekonomii i trzema godzinami statystyki, księgowości lub rachunku różniczkowego i całkowego. Jednak prawdopodobnie będą wymagane dodatkowe kursy i/lub lepsze wyniki w nauce. Znaczenie analizy ilościowej sprawia, że osoby planujące karierę w ekonomii bardzo chętnie biorą udział w kursach z matematyki, statystyki, teorii próbkowania i projektowania ankiet oraz informatyki . Studia podyplomowe z ekonomii, ze specjalizacją w takich dziedzinach jak teoria ekonomii, ekonometria, porównawcze systemy ekonomiczne, planowanie ekonomiczne, ekonomia pracy i ekonomia międzynarodowa, są zazwyczaj wymagane do awansu w rządzie lub przemyśle prywatnym . Ekonomiści biznesowi z tytułem magistra i doświadczeniem mogą awansować na stanowiska kierownicze lub kierownicze w bankach, przemyśle lub innych organizacjach, gdzie określają politykę biznesową i administracyjną (Horizons, 2000). Tytuł magistra jest zazwyczaj minimalnym wymogiem do pracy jako instruktor w szkołach wyższych i społecznościach. Jednak na stanowisko wykładowcy w większości szkół wyższych i uniwersytetów zazwyczaj wymagany jest doktorat. Tytuł doktora plus liczne publikacje w czasopismach naukowych są wymagane do uzyskania stanowiska profesora, stałego zatrudnienia i awansu. Ekonomiści w edukacji mogą awansować na stanowiska kierowników wydziałów lub na stanowiska administracyjne lub badawcze ("Ekonomiści i marketing", 2000). Ogólnie rzecz biorąc, dobre umiejętności matematyczne i analityczne są niezbędne; ważne są wytrwałość, obiektywizm i kreatywność w rozwiązywaniu problemów; i umiejętności komputerowe oraz doskonałe umiejętności komunikacyjne są bezcenne. Ekonomiści nie muszą posiadać żadnych specjalnych licencji ani certyfikatów
LOKALIZACJA PRACY
Zazwyczaj ekonomiści, którzy nie są w środowisku akademickim, pracują w dużych miastach, gdzie znajduje się największe skupisko głównych władz finansowych i rządowych; Nowy Jork i Waszyngton, DC, są głównymi ośrodkami zatrudnienia, wraz z Chicago i Los Angeles. Stanowiska akademickie są rozproszone po całym kraju. Amerykańscy ekonomiści są również zatrudniani w krajach zagranicznych przez międzynarodowe firmy i organizacje oraz przez agencje rządowe USA .
ZAROBKI I PERSPEKTYWY ZAWODOWE
Ekonomiści są najlepiej opłacanymi naukowcami społecznymi. Najlepiej opłacani ekonomiści w biznesie zajmują się papierami wartościowymi i inwestycjami, ubezpieczeniami oraz handlem detalicznym i hurtowym. Najgorzej opłacani ekonomiści pracują w edukacji, instytucjach badawczych non-profit i w branży nieruchomości. Najlepsze możliwości zatrudnienia dla ekonomistów powinny być w sektorze produkcji, usług finansowych, reklamy i firm konsultingowych. Złożoność współczesnych rynków krajowych i międzynarodowych będzie nadal stymulować popyt na osoby wykwalifikowane w zakresie analizy ilościowej. Ponadto prawnicy, księgowi, inżynierowie oraz planiści miejscy i regionalni, między innymi, będą nadal potrzebować analizy ekonomicznej. Większość ofert pracy pojawi się w wyniku potrzeby zastąpienia osób przechodzących na emeryturę lub odchodzących z zawodu z jakiegoś innego powodu . Popyt na wykwalifikowanych analityków badań marketingowych powinien być duży ze względu na coraz bardziej konkurencyjną gospodarkę. Badania marketingowe dostarczają organizacjom cennych informacji zwrotnych od nabywców, które umożliwiają firmom ocenę satysfakcji konsumentów i skuteczniejsze planowanie przyszłości. W miarę jak firmy starają się rozszerzyć swój rynek, a konsumenci są lepiej poinformowani, zapotrzebowanie na specjalistów od marketingu będzie wzrastać . Ekonomiści z tytułem licencjata będą musieli stawić czoła silnej konkurencji w zdobywaniu miejsc pracy w biznesie lub przemyśle; niektórzy mogą znaleźć stanowiska jako stażyści ds. zarządzania lub sprzedaży albo jako asystenci ds. badań lub administracji. Osoby z tytułem magistra i silnym doświadczeniem w marketingu i finansach będą miały najlepsze perspektywy w biznesie, bankowości, reklamie i doradztwie zarządczym . Osoby posiadające tytuł doktora w dziedzinie ekonomii i marketingu prawdopodobnie będą musiały stawić czoła silnej konkurencji o stanowiska nauczycielskie w szkołach wyższych i na uniwersytetach. Jednak możliwości powinny być dobre w innych obszarach, takich jak przemysł i firmy konsultingowe.
WNIOSEK
Ekonomia jest jedyną nauką społeczną, za którą przyznawana jest Nagroda Nobla - co wskazuje na jej znaczenie. Koncepcje ekonomiczne zostały zastosowane w naukach przyrodniczych; zarówno teoria doboru naturalnego, jak i badanie ekologii, na przykład, w dużym stopniu opierały się na koncepcjach ekonomicznych. Ekonomia jest zarówno dyscypliną teoretyczną, jak i stosowaną. Analizuje sposób, w jaki gospodarka może być zmieniana i ulepszana poprzez naukę, w jaki sposób różne części społeczeństwa wpływają na siebie nawzajem i badanie relacji między rządem, biznesem i jednostką (Basta, 1991). Koncepcje ekonomiczne są tak potężne i wszechstronne, że zostały zastosowane w próbach zrozumienia niemal każdego aspektu działalności człowieka. Ekonomia dostarcza ważnych spostrzeżeń w obszarach od polityki fiskalnej i pieniężnej rządu, po biznes, prawo i prawa własności, po kwestie ubóstwa i zdrowia, kwestie środowiskowe i zasobów naturalnych, po wybór partnerów małżeńskich.
Rozważając kariery w finansach, szybko zaczynamy zdawać sobie sprawę, że istnieje wiele zawodów, z kilkoma typami organizacji, wymagających różnych poziomów wykształcenia i przeszkolenia. Niestety, słowo finanse ujawnia niewiele szczegółów na temat tego, co tak naprawdę robi się w karierze finansowej. Przewodnik po karierach w branżach (wydanie 2000-2001), opracowany przez Biuro Statystyki Pracy, organizuje kariery finansowe według trzech szerokich kategorii: bankowość, ubezpieczenia oraz papiery wartościowe i towary. Kariery w branży bankowej koncentrują się na udzielaniu pożyczek, kredytów i usług płatniczych klientom indywidualnym i dużym instytucjonalnym. Prace w branży ubezpieczeniowej koncentrują się na zapewnianiu klientom ochrony przed stratami finansowymi i trudnościami spowodowanymi takimi rzeczami jak pożar. Wreszcie, kariery w papierach wartościowych i towarach są zazwyczaj tym, o czym większość ludzi myśli, rozważając karierę w finansach. Te prace koncentrują się na doradzaniu i pomaganiu inwestorom indywidualnym i instytucjonalnym w zakupie i sprzedaży akcji, obligacji i towarów.
KARIERY W BANKU
Większość stanowisk w sektorze bankowym to stanowiska administracyjne i administracyjne. Kasjerzy bankowi stanowią większość stanowisk administracyjnych w instytucjach bankowych. Kasjerzy pracują bezpośrednio z klientami, pomagając im w podstawowych usługach bankowych, takich jak wpłacanie środków i realizacja czeków. Nowi pracownicy księgowi, zwani również przedstawicielami obsługi klienta, pomagają klientom w otwieraniu i zamykaniu kont bankowych oraz w składaniu wniosków o pożyczki lub karty kredytowe. W związku z tym kasjerzy bankowi i nowi pracownicy księgowi muszą znać szeroki zakres usług bankowych i być w stanie edukować klientów w zakresie tych usług. W sektorze bankowym istnieje kilka innych stanowisk administracyjnych na poziomie podstawowym. Księgowi, audytorzy i księgowi są potrzebni do pomocy w prowadzeniu i aktualizowaniu rejestrów finansowych, przetwarzaniu dowodów wpłat i czeków oraz wprowadzaniu danych. Pracownicy kredytowi lub pożyczkowi są odpowiedzialni za organizację dokumentów potrzebnych do ukończenia wymaganych rejestrów dla zatwierdzonych pożyczek lub linii kredytowych. Banki potrzebują również sekretarek, recepcjonistów i operatorów komputerów, którzy pomogą w wielu obowiązkach administracyjnych. Według Career Guide to Industries, 25 procent stanowisk w sektorze bankowym to stanowiska kierownicze, administracyjne i menedżerskie. Przykłady takich stanowisk obejmują pracowników kredytowych, pracowników powierniczych i kierowników finansowych. Pracownicy kredytowi są odpowiedzialni za ustalenie, czy klient może spłacić pożyczkę, a następnie zatwierdzenie lub odrzucenie wniosku kredytowego klienta. Pomagają również w pozyskiwaniu nowych klientów poprzez rozwijanie relacji z klientami, którzy będą potrzebować pożyczek bankowych w przyszłości. Pracownicy kredytowi i doradcy zwykle specjalizują się w pożyczkach komercyjnych, konsumenckich lub hipotecznych. Pracownicy powierniczy są odpowiedzialni za zarządzanie finansami klientów lub organizacji, które zostały powierzone bankowi. Bardzo często są wzywani do bycia wykonawcami testamentu osoby fizycznej po jej śmierci. Na koniec kierownicy finansowi nadzorują operacje w oddziałach lub działach, aby upewnić się, że klienci otrzymują wysokiej jakości usługi. Wymagania dotyczące wykształcenia i szkoleń dla karier finansowych w bankowości różnią się w zależności od specjalnych umiejętności wymaganych do osiągnięcia sukcesu i poziomu odpowiedzialności. Kasjerzy i urzędnicy bankowi zazwyczaj potrzebują co najmniej wykształcenia średniego. Niektóre podstawowe umiejętności i zainteresowania potrzebne do osiągnięcia sukcesu jako kasjerzy lub urzędnicy to umiejętności matematyczne, umiejętności komunikacji interpersonalnej i swoboda w obchodzeniu się z dużymi kwotami pieniędzy. Zazwyczaj banki zapewniają kasjerom i urzędnikom dodatkowe szkolenia dotyczące procedur i przepisów organizacji. Amerykański Instytut Bankowości, Amerykańskie Stowarzyszenie Bankierów i Instytut Edukacji Finansowej oferują akredytowane kursy szkolenia zaawansowanego. Kasjerzy i urzędnicy bankowi biorą udział w tych kursach edukacyjnych, aby przygotować się do większej odpowiedzialności i pomóc w awansie zawodowym. Jednak większość banków ma własne programy szkoleniowe. Menedżerowie finansowi, pracownicy kredytowi i urzędnicy powierniczy zazwyczaj mają dyplom ukończenia studiów wyższych, jeśli nie bardziej zaawansowany stopień zawodowy lub magisterski. Większość studiuje administrację biznesową lub zdobywa dyplom ze specjalizacją w administracji biznesowej. Każdy dyplom ukończenia studiów wyższych plus tytuł magistra administracji biznesowej lub tytuł prawniczy stanowią doskonałe przygotowanie do jednego z tych stanowisk w zarządzaniu finansami. Menedżerowie, którzy również sprzedają papiery wartościowe, muszą uzyskać licencję Krajowego Stowarzyszenia Dealerów Papierów Wartościowych. Zarobki w sektorze bankowym odzwierciedlają ilość odpowiedzialności i wykształcenia wymaganego na danym stanowisku. W rezultacie im więcej odpowiedzialności i wykształcenia wymaga praca, tym wyższa pensja. Wraz ze wzrostem ilości odpowiedzialności rośnie również pensja, co można zaobserwować w przedziałach wynagrodzeń pracowników ds. kredytów komercyjnych, pracowników ds. powiernictwa i kadry kierowniczej wyższego szczebla. Inne czynniki wpływające na pensję to doświadczenie, długość stażu w banku oraz lokalizacja i wielkość banku. Oczekuje się, że zatrudnienie w sektorze bankowym wzrośnie o 3 procent, co jest znacznie mniej niż tempo wzrostu całej gospodarki, które ma wzrosnąć o 15 procent w latach 1998-2008. Oczekuje się, że redukcja zatrudnienia i cięcia kosztów, które miały miejsce w tej branży na początku i w połowie lat 90., spadną. Oczekuje się, że większość wzrostu w sektorze bankowym nastąpi w małych regionalnych spółdzielniach kredytowych i bankach. W miarę jak banki stają się bardziej zautomatyzowane, a bankomaty są w stanie świadczyć więcej usług, potrzebnych będzie mniej kasjerów i pracowników bankowych. Obszary wzrostu można znaleźć w działach obsługi klienta zatrudniających przedstawicieli handlowych do obsługi telefonicznej oraz w działach powierniczych zajmujących się zarządzaniem majątkiem starzejącego się społeczeństwa.
KARIERY W BRANŻY UBEZPIECZENIOWEJ
W Career Guide to Industries stwierdzono, że ponad 40 procent stanowisk w branży ubezpieczeniowej to stanowiska administracyjne, takie jak sekretarki, księgowi, procesory tekstu i urzędnicy. Te stanowiska pomocnicze często wymagają umiejętności i wiedzy, które są specyficzne dla branży ubezpieczeniowej. Na przykład, ponieważ urzędnicy ds. polis ubezpieczeniowych koncentrują się na przetwarzaniu wniosków o polisy ubezpieczeniowe, zmianach polis i anulowaniach, muszą mieć dobrą znajomość polis ubezpieczeniowych. Często weryfikują zarówno kompletność wniosku, jak i dokładność rejestrów firmy ubezpieczeniowej. Badacze i śledczy ds. roszczeń ubezpieczeniowych często badają wątpliwe roszczenia lub roszczenia przekraczające kwotę, którą firma ubezpieczeniowa jest skłonna zapłacić. Badacze i śledczy spędzają większość czasu na sprawdzaniu dokładności wniosków o roszczenia, uzyskiwaniu informacji potrzebnych do podjęcia decyzji od ekspertów i konsultowaniu bieżącej polityki dotyczącej roszczeń. Stanowiska kierownicze, menedżerskie i administracyjne stanowią około 30 procent stanowisk w branży ubezpieczeniowej. Trzy przykłady stanowisk na tym poziomie zatrudnienia w branży ubezpieczeniowej to menedżer ds. ryzyka, menedżer ds. sprzedaży i ubezpieczyciel. Menedżerowie ds. ryzyka opracowują zasady, których firma ubezpieczeniowa przestrzega podejmując decyzje dotyczące roszczeń. Zasady te są opracowywane poprzez analizę danych historycznych dotyczących klęsk żywiołowych, wypadków samochodowych i innych sytuacji, które mogą skutkować stratami fizycznymi lub finansowymi. Menedżerowie ds. sprzedaży sprzedają produkty ubezpieczeniowe, pomagają klientom w kwestiach dotyczących polis i nadzorują personel. Stanowią większość menedżerów w lokalnych biurach sprzedaży. Na koniec ubezpieczyciele przeglądają wnioski o ubezpieczenie i poziom ryzyka związanego z wyrażeniem zgody na wystawienie polisy ubezpieczeniowej. Zasadniczo ubezpieczyciel ustala, czy zaakceptować, czy odrzucić wniosek i jaką wysokość składki powinien zapłacić klient. Mniejszy odsetek, około 15 procent, pracowników etatowych w branży ubezpieczeniowej stanowią sprzedawcy, często nazywani brokerami ubezpieczeniowymi lub agentami ubezpieczeniowymi, którzy koncentrują się na sprzedaży polis ubezpieczeniowych firmom i klientom indywidualnym. Agenci ubezpieczeniowi mogą sprzedawać ubezpieczenia wyłącznie dla jednej firmy ubezpieczeniowej lub polisy ubezpieczeniowe wystawione przez kilka różnych firm ubezpieczeniowych. Niektóre z typowych rodzajów polis ubezpieczeniowych, które może sprzedawać agent lub broker, obejmują ubezpieczenia zdrowotne, na życie, renty, majątkowe, wypadkowe i inwalidzkie. Oprócz tych usług niektórzy agenci mają obecnie licencję na sprzedaż funduszy inwestycyjnych, rent i papierów wartościowych. Jeszcze mniejszym polem kariery w branży ubezpieczeniowej jest obszar nauk aktuarialnych. Chociaż aktuariuszy może nie być tak wielu, jak sprzedawców w branży ubezpieczeniowej, są oni bardzo ważni dla branży. Aktuariusze ustalają stawki płacone przez klientów na poziomie, na którym zebrane składki wygenerują wystarczająco dużo pieniędzy na pokrycie wypłaconych roszczeń. Jednak składki nie mogą być zbyt wysokie, ponieważ klienci przejdą do innych firm ubezpieczeniowych. Aktuariusze osiągają to, badając prawdopodobieństwo wystąpienia ubezpieczonej straty i stawki składek innych firm ubezpieczeniowych. Wymagania dotyczące wykształcenia dla stanowisk w branży ubezpieczeniowej różnią się w zależności od stanowiska i jego obowiązków. Wiele stanowisk administracyjnych na poziomie podstawowym w branży ubezpieczeniowej wymaga jedynie dyplomu ukończenia szkoły średniej. Wyższe stanowiska kierownicze, menedżerskie i sprzedażowe wymagają większego wykształcenia, a pracodawcy zazwyczaj wolą zatrudniać absolwentów szkół wyższych. Większość stanowisk kierowniczych jest obsadzana poprzez awansowanie osób z organizacji. Tacy pracownicy zazwyczaj mają wykształcenie wyższe, pewne specjalistyczne przeszkolenie w branży ubezpieczeniowej i doświadczenie w firmie. Aktuariusze zazwyczaj mają wykształcenie wyższe w zakresie nauk aktuarialnych, matematyki lub statystyki. Po ukończeniu studiów aktuariusze muszą zdać serię egzaminów w ciągu pięciu do dziesięciu lat, aby uzyskać pełne kwalifikacje. Ogólnie rzecz biorąc, możliwości awansu w branży ubezpieczeniowej są dobre. Zarobki urzędników ubezpieczeniowych i personelu administracyjnego są niższe niż zarobki egzaminatorów ubezpieczeniowych, rzeczoznawców i śledczych. Wyższe roczne pensje są typowe dla wyższych rangą dyrektorów generalnych i kadry kierowniczej wyższego szczebla. Wynagrodzenia agentów sprzedaży są trudne do ustalenia, ponieważ wielu sprzedawców otrzymuje pensję plus prowizje plus premie za osiągnięcie celów sprzedażowych. Ponadto zarobki agenta będą szybko rosły w miarę zdobywania przez niego doświadczenia i rozwijania bazy klientów. Przewiduje się, że wskaźnik zatrudnienia w branży ubezpieczeniowej będzie wzrastał wolniej niż średnia dla wszystkich branż razem wziętych. Wzrost zatrudnienia w branży ubezpieczeniowej będzie prawdopodobnie ograniczony przez redukcję zatrudnienia w dużych firmach ubezpieczeniowych, komputeryzację i tendencję do kampanii sprzedaży bezpośredniej i telefonicznej. Jednym z obszarów wzrostu w tej branży jest sprzedaż usług i produktów finansowych. Inny obszar wzrostu wynika z potrzeby pokrycia dużych odszkodowań z tytułu odpowiedzialności cywilnej wynikających z pozwów. Wreszcie liczba specjalistów ds. roszczeń będzie rosła szybciej niż na jakimkolwiek innym stanowisku w branży ze względu na potrzebę lepszej obsługi klienta i faktycznej kontroli uszkodzonego mienia lub konsultacji z lekarzami.
KARIERY W PAPIERACH WARTOŚCIOWYCH I TOWARACH
W tej dziedzinie branży finansowej jest wielu pracowników. Krajowe firmy maklerskie mają rozległe systemy oddziałów w całym kraju; w rezultacie te firmy maklerskie zatrudniają większość pracowników w tej branży. Siedziba główna tych firm znajduje się w Nowym Jorku, gdzie pracuje większość kadry kierowniczej i personelu pomocniczego. Firmy zarządzające funduszami inwestycyjnymi i regionalne domy maklerskie również zatrudniają wiele osób. Chociaż jest to bardzo dobrze znane, New York Stock Exchange zatrudnia w rzeczywistości niewielką liczbę osób w porównaniu z resztą branży. Dużo uwagi poświęca się śledzeniu wyników, transakcji i wartości inwestycji. Pracownicy biur maklerskich odpowiadają za większość codziennych operacji i przetwarzanie większości generowanej dokumentacji. Te stanowiska są często uważane za stanowiska podstawowe z możliwością awansu do sprzedaży papierów wartościowych, a nawet na wyższe stanowiska. Na przykład asystent sprzedaży odbiera telefony od klientów, sporządza zamówienie, przetwarza dokumentację i informuje klientów o wynikach ich portfela. Mając doświadczenie i licencję na kupno i sprzedaż papierów wartościowych, pracownicy biur maklerskich mogą awansować na wyższe stanowiska sprzedaży. Najwięcej osób zatrudnionych w branży papierów wartościowych i towarów można znaleźć w trzech zawodach: papiery wartościowe, towary i sprzedaż usług finansowych. Kariery te obejmują kupowanie i sprzedawanie akcji, funduszy inwestycyjnych i innych usług finansowych. Większość tych pracowników to przedstawiciele handlowi, którzy pracują bezpośrednio z indywidualnymi inwestorami. Są oni znani jako brokerzy, kierownicy ds. kont lub konsultanci finansowi. Brokerzy papierów wartościowych i towarów różnią się inwestycjami, które kupują i sprzedają. Brokerzy papierów wartościowych zazwyczaj kupują i sprzedają akcje, obligacje i fundusze inwestycyjne. Brokerzy towarów kupują i sprzedają kontrakty terminowe na metale, dostawy energii, takie jak ropa naftowa, i produkty rolne. Oprócz kupowania i sprzedawania papierów wartościowych, brokerzy mogą doradzać i edukować swoich klientów w zakresie inwestycji, oszczędzania na emeryturę i tolerancji na ryzyko. Ogólnie rzecz biorąc, brokerzy poświęcają dużo czasu na marketing swoich usług i produktów, aby zbudować silną bazę klientów. Doradcy finansowi idą o krok dalej w doradzaniu i edukowaniu swoich klientów. Często udzielają doradztwa w zakresie inwestycji, inwestowania na emeryturę, planowania podatkowego i świadczeń pracowniczych. Ich strategia ma tendencję do bardziej kompleksowego podejścia do doradzania klientom w sprawach finansowych w porównaniu do brokerów. Ci doradcy mogą również kupować i sprzedawać akcje, fundusze inwestycyjne, obligacje i renty. Bankierzy inwestycyjni i analitycy finansowi wydają rekomendacje dotyczące potencjalnych zysków z inwestycji w określone firmy, przeglądając zapisy finansowe firm i oceniając trendy rynkowe. Odgrywają również bardzo ważną rolę w określaniu wartości rynkowej akcji, które są przedmiotem obrotu publicznego lub akcji kupowanych, gdy firma łączy się z inną firmą lub ją przejmuje. Analitycy finansowi często specjalizują się w określonym sektorze przemysłu, takim jak akcje technologiczne. Inną karierą w obszarze papierów wartościowych i towarów w branży finansowej jest kariera menedżera portfela. Ci specjaliści finansowi są odpowiedzialni za inwestowanie dużych kwot pieniędzy. Portfele, którymi zarządzają, to często fundusze inwestycyjne, fundusze emerytalne, fundusze powiernicze i fundusze dla osób fizycznych, które inwestują bardzo duże kwoty pieniędzy. Co najważniejsze, zarządzający portfelem muszą mieć jasne zrozumienie celów inwestycyjnych funduszu inwestycyjnego lub klienta, aby mieć pewność, że podejmowane przez nich decyzje inwestycyjne spełniają cele finansowe i wytyczne określone przez fundusz inwestycyjny lub klienta. Ogólnie rzecz biorąc, pracownicy w tej dziedzinie branży finansowej są dobrze wykształceni i wysoko wykwalifikowani. Nawet stanowiska początkującego maklera często wymagają dyplomu ukończenia studiów wyższych. Ponadto, aby sprzedawać papiery wartościowe, profesjonaliści muszą zdać egzamin sprawdzający ich wiedzę na temat inwestycji. National Association of Securities Dealers (NASD) przeprowadza te testy i przyznaje profesjonalistom licencje na sprzedaż różnych produktów inwestycyjnych. Większość brokerów i asystentów sprzedaży uzyskuje licencję Series 7 od NASD, zdając egzamin General Securities Registered Representative. Oprócz zdania egzaminu, ci profesjonaliści muszą uczestniczyć w zajęciach z kwestii regulacyjnych i nowych produktów inwestycyjnych, aby zachować licencję. Obecnie nie ma specjalnych wymagań licencyjnych, aby zostać planistą finansowym. Jednak wielu planistów finansowych uzyskuje tytuł certyfikowanego planisty finansowego (CFP) lub dyplomowanego konsultanta finansowego (ChFC). CFP jest wydawany przez CFP Board of Standards, a ChFC jest oferowany przez American College. Aby otrzymać jeden z tych tytułów, należy zdać serię egzaminów z inwestycji, podatków, ubezpieczeń, emerytur i planowania majątkowego. Ponadto CFP musi przestrzegać zasad i przepisów określonych przez CFP Board of Standards. Większość pracowników na stanowiskach analityków i menedżerów na poziomie podstawowym ma wykształcenie wyższe i studiowała finanse, ogólną administrację biznesową, ekonomię, rachunkowość lub marketing. Aby awansować, wielu bierze udział w programach stażowych dla kadry zarządzającej, w których krótko pracują i poznają różne działy. Aby awansować dalej i uzyskać dostęp do wyższych wynagrodzeń i bardziej prestiżowych stanowisk, wiele osób zdobywa tytuł magistra w zakresie administracji biznesowej. W przypadku wielu brokerów i dealerów towarowych dochód opiera się na pensji i prowizjach od sprzedaży lub zakupu akcji, obligacji lub kontraktów terminowych. Gdy gospodarka jest silna, prowizje i premie są znacznie wyższe niż w okresie recesji. Innym czynnikiem decydującym o zarobkach w tej dziedzinie finansów jest wielkość aktywów, za zarządzanie którymi odpowiada menedżer. Roczne zarobki początkujących pracowników maklerskich znajdują się na początku skali. Dalej w górę skali znajdują się analitycy finansowi i agenci sprzedaży. Na kolejnym poziomie są menedżerowie finansowi. Najlepiej opłacanymi profesjonalistami w branży papierów wartościowych i towarów są dyrektorzy generalni i kadra kierownicza wyższego szczebla. Wiele firm oferuje również swoim pracownikom udział w zyskach i opcje na akcje. Ponadto większość pracowników etatowych otrzymuje świadczenia zdrowotne, płatne urlopy i zwolnienia chorobowe. Wzrost zatrudnienia w tej branży jest napędzany przez kilka czynników. Po pierwsze, bardziej niż kiedykolwiek, ludzie inwestują w papiery wartościowe jako sposób na oszczędzanie pieniędzy i planowanie emerytury, co skutkuje dużym napływem pieniędzy na giełdę. Po drugie, chociaż handel online zmniejsza potrzebę bezpośredniego kontaktu z brokerami, nadal istnieje potrzeba doradztwa inwestycyjnego. Wreszcie, zwiększone zapotrzebowanie na inwestowanie na złożonym rynku globalnym stworzyło zapotrzebowanie na wykwalifikowanych menedżerów inwestycyjnych. Według Occupational Outlook Handbook, czynniki te przyczyniły się do prognozowanego wzrostu zatrudnienia o 40 procent dla tego segmentu karier finansowych, co jest znacznie więcej niż 15 procent prognozowane dla wszystkich innych branż razem wziętych.
Popyt na specjalistów od komputerów i systemów informatycznych istnieje i nadal rośnie. Biuro Polityki Technologicznej Departamentu Handlu USA (1982) poinformowało, że w latach 1996-2006 amerykańskie firmy i szkoły będą potrzebować ponad 1,3 miliona nowych pracowników w branży informatycznej, aby obsadzić stanowiska. W XXI wieku 70 procent wszystkich stanowisk będzie wymagało umiejętności korzystania z komputerów i sieci. Biuro Statystyki Pracy USA (1998) poinformowało, że najszybciej rozwijającymi się stanowiskami w branży informatycznej do roku 2006 będą inżynier komputerowy, analityk systemów, technik naprawy komputerów i programista. Istnieje również duże zapotrzebowanie na analityków systemów, informatyków, administratorów sieci i menedżerów baz danych. Kariery w dziedzinie komputerów i przetwarzania informacji, zwane również technologiami informacyjnymi (IT), wymagają unikalnego połączenia umiejętności koncepcyjnych w zakresie kreatywnego rozwiązywania problemów i krytycznego myślenia, technicznych umiejętności praktycznych oraz umiejętności komunikacyjnych i interpersonalnych, a także zrozumienia potrzeb biznesowych i branżowych. Możliwości kariery w branży komputerowej można podzielić na cztery obszary:
• Firmy produkujące sprzęt komputerowy
• Firmy opracowujące oprogramowanie
• Firmy zatrudniające specjalistów od systemów informatycznych do pracy z oprogramowaniem i sprzętem
• Firmy i organizacje oferujące szkolenia i edukację w zakresie komputerów
Istnieje wiele firm usługowych, które wspierają każdy z tych czterech obszarów - firmy sprzedające materiały komputerowe lub oferujące konsultacje w zakresie analizy, projektowania, programowania i projektów sieciowych.
KARIERY W BRANŻY SPRZĘTU KOMPUTEROWEGO
Branża sprzętu komputerowego, czyli sprzętu komputerowego, składa się z producentów i dystrybutorów systemów komputerowych i sprzętu związanego z komputerami, takiego jak monitory, drukarki i sprzęt komunikacyjny. Producenci sprzętu komputerowego to organizacje zatrudniające tysiące pracowników w wielu lokalizacjach na całym świecie. Na przykład IBM jest jedną z największych firm komputerowych, zatrudniającą ponad 200 000 pracowników i osiągającą sprzedaż przekraczającą 80 miliardów dolarów w 1998 roku. Liczne firmy typu start-up wykorzystały szybkie zmiany w technologii sprzętu, aby tworzyć nowe produkty i nowe możliwości zatrudnienia w takich obszarach, jak sieci, multimedia i światłowody. Oprócz firm produkujących sprzęt dla użytkowników końcowych, tysiące firm buduje komponenty, takie jak płyty główne, urządzenia wejściowe i wyjściowe oraz zasilacze. Tytuły stanowisk, które obejmują projektowanie i produkcję sprzętu komputerowego, obejmują inżyniera komputerowego, inżyniera oprogramowania i autora technicznego. Inżynier komputerowy projektuje, buduje, testuje i ocenia układy scalone, płytki drukowane, systemy komputerowe i urządzenia peryferyjne. Inżynierowie komputerowi muszą mieć tytuł licencjata z elektrotechniki lub inżynierii komputerowej. Muszą być bardzo zorientowani na szczegóły i dobrzy w rozwiązywaniu problemów. Inżynierowie oprogramowania opracowują oprogramowanie systemowe, takie jak systemy operacyjne, narzędzia i sterowniki oprogramowania. Minimalne wymagane wykształcenie to licencjat z informatyki. Ważne umiejętności obejmują dobre umiejętności analityczne, umiejętność pracy z abstrakcyjnymi koncepcjami i dbałość o szczegóły. Autorzy tekstów technicznych tworzą publikacje techniczne, takie jak podręczniki referencyjne, podręczniki procedur i dokumentacja produktów. Minimalne wymagania edukacyjne to licencjat z inżynierii, nauk ścisłych lub pokrewnej dyscypliny. Autorzy tekstów technicznych muszą mieć dobre umiejętności pisania, a także wiedzę na temat produktów, procesów i procedur.
KARIERA W BRANŻY OPROGRAMOWANIA KOMPUTEROWEGO
Firmy z branży oprogramowania komputerowego opracowują, produkują i wspierają szeroką gamę produktów oprogramowania, takich jak systemy operacyjne i inne oprogramowanie systemowe, oprogramowanie do zwiększania wydajności, oprogramowanie sieciowe, narzędzia do tworzenia oprogramowania oraz oprogramowanie i technologie internetowe. Niektóre firmy specjalizują się w określonym typie produktu oprogramowania, takim jak oprogramowanie do zwiększania wydajności biznesowej, programy narzędziowe lub narzędzia do projektowania multimedialnego i graficznego. Inne firmy produkują i sprzedają wiele produktów programowych. Branża oprogramowania osiągnęła sprzedaż przekraczającą 200 miliardów dolarów w 1998 roku. Największa firma programistyczna, Microsoft, ma ponad 300 produktów i technologii, ponad 20 000 pracowników i sprzedaż przekraczającą 11 miliardów dolarów w 1998 roku. Kariery w branży oprogramowania obejmują projektowanie i programowanie wszelkiego rodzaju produktów programowych, takich jak oprogramowanie aplikacyjne dla firm, oprogramowanie zwiększające produktywność, programy edukacyjne, oprogramowanie rozrywkowe i oprogramowanie systemowe. Kariery w branży oprogramowania komputerowego obejmują programistę, inżyniera oprogramowania, analityka oprogramowania i autora technicznego. Programista projektuje, pisze i testuje programy komputerowe. Wymagania edukacyjne to licencjat z informatyki lub komputerowych systemów informatycznych. Programowanie wymaga logicznego myślenia i zwracania uwagi na szczegóły; wymaga cierpliwości, wytrwałości, wymagających umiejętności analitycznych i zdolności dotrzymywania terminów. Pomysłowość i wyobraźnia to ważne umiejętności, ponieważ programiści projektują rozwiązania i testują swoją pracę pod kątem potencjalnych awarii. Coraz częściej umiejętności interpersonalne są ważne dla programistów pracujących w zespołach i bezpośrednio komunikujących się z użytkownikami. Programiści systemowi, którzy pracują z oprogramowaniem kontrolującym działanie komputera, muszą mieć umiejętności w zakresie analizy technicznej i abstrakcyjnych pojęć. Analitycy systemów i analitycy oprogramowania przeprowadzają analizę wymagań, projektują rozwiązania programowe i nadzorują proces rozwoju oprogramowania. Minimalnym wymogiem edukacyjnym jest licencjat z informatyki. Analitycy oprogramowania muszą mieć dobre umiejętności komunikacyjne i interpersonalne, biegłą znajomość procesu projektowania i rozwoju oraz dobre umiejętności zarządzania projektami.
KARIERY JAKO PROFESJONALIŚCI SYSTEMÓW INFORMACYJNYCH
W wielu organizacjach dział systemów informatycznych (IS) obejmuje profesjonalistów systemów informatycznych, którzy konfigurują i zarządzają sprzętem komputerowym i oprogramowaniem, aby zapewnić, że generuje on informacje do podejmowania decyzji. Cztery podstawowe grupy karier w systemach informatycznych to operacje, rozwój systemów, usługi techniczne i przetwarzanie dla użytkowników końcowych.
Operacje .Praca w operacjach obejmuje operatora komputera, specjalistę ds. komunikacji i inżyniera sieci lokalnej (LAN). Operator komputera monitoruje wydajność systemu komputerowego, uruchamia zadania, wykonuje kopie zapasowe i przywraca pliki i systemy. Wymagane jest świadectwo ukończenia szkoły średniej. Specjalista ds. komunikacji instaluje, monitoruje i ocenia sprzęt i oprogramowanie do komunikacji danych i/lub głosu oraz odpowiada za połączenia z Internetem i innymi sieciami rozległymi (WAN). Minimalnym wymogiem edukacyjnym jest licencjat z systemów informatycznych lub technologii inżynierii elektrycznej. Inżynier sieci LAN instaluje i utrzymuje sieci lokalne. Przykładem inżyniera sieci LAN jest inżynier systemów Windows NT. Od inżynierów sieci oczekuje się umiejętności i doświadczenia, aby wziąć odpowiedzialność za całe projekty i zająć się takimi problemami, jak projektowanie sieci, zarządzanie siecią, bezpieczeństwo, skalowalność i wydajność. W przypadku inżynierów sieciowych niezbędne jest doświadczenie jako starszego inżyniera sieciowego oraz solidne umiejętności w zakresie rozwiązywania problemów NT, rozwiązywania problemów, pracy zespołowej i komunikacji.
Rozwój systemów. Kariery w rozwoju systemów obejmują analityka systemów, programistę aplikacji, webmastera, projektanta stron internetowych/twórcę witryn, specjalistę internetowego i autora tekstów technicznych. Analitycy systemów oceniają wymagania użytkowników i projektują rozwiązania systemów informatycznych. Muszą myśleć logicznie, mieć dobre umiejętności komunikacyjne i lubić pracować z pomysłami i ludźmi. Często zajmują się wieloma zadaniami i projektami jednocześnie. Chociaż informatycy i analitycy systemów mogą pracować niezależnie, często pracują w zespołach nad dużymi projektami. Muszą skutecznie komunikować się z personelem komputerowym, takim jak programiści i menedżerowie, a także z innymi pracownikami, którzy mają ograniczone techniczne doświadczenie komputerowe, ale są ekspertami przedmiotowymi w obszarze funkcjonalnym biznesu. Wymagany jest tytuł licencjata w zakresie systemów informatycznych zarządzania. Programiści aplikacji konwertują projekt systemu na odpowiedni język komputerowy, taki jak C, Java lub Cobol. Minimalnym wymogiem edukacyjnym jest tytuł A.A.S. w zakresie systemów informatycznych. Umiejętności programisty aplikacji są podobne do umiejętności programisty systemów. Webmaster utrzymuje witrynę internetową organizacji i tworzy lub pomaga użytkownikom w tworzeniu stron internetowych. Minimalnym wymogiem edukacyjnym jest tytuł A.A.S. w systemach informatycznych. Minimalnym wymogiem edukacyjnym projektanta stron internetowych/twórcy witryn jest licencjat z informatyki systemów informatycznych. Zestaw umiejętności dla obu stanowisk obejmuje umiejętności w językach tworzenia stron internetowych, takich jak C++, Java i HTML. Ta praca obejmuje automatyzację funkcji obsługi klienta i pomocy technicznej, a także bieżącą konserwację i rozwój. Niezbędne jest dobre zrozumienie biznesu. Niezbędne są silne umiejętności ustalania priorytetów i obsługi klienta. Ta kariera obejmuje pracę projektową i doradztwo. Minimalne wykształcenie specjalisty ds. Internetu to licencjat z systemów informatycznych lub technologii elektrotechnicznej. To stanowisko wymaga umiejętności w zakresie sieci wyższego szczebla, sieci LAN i WAN, Internetu, bezpieczeństwa, handlu elektronicznego, aplikacji Unix, Windows NT i Novell. Niezbędne są skuteczne umiejętności komunikacyjne. Ta kariera wymaga otwartej osobowości i umiejętności dobrej współpracy z użytkownikami. Autorzy tekstów technicznych współpracują z analitykami, programistami i użytkownikami w celu tworzenia dokumentacji systemowej i instrukcji obsługi. Minimalnym wymogiem edukacyjnym jest licencjat z systemów informatycznych.
TechnicalServices. Trzy główne kariery w usługach technicznych to analityk baz danych, programista systemowy i specjalista ds. zapewniania jakości. Analitycy baz danych pomagają analitykom systemów i programistom w rozwijaniu lub modyfikowaniu aplikacji, które wykorzystują bazę danych organizacji. Minimalne wykształcenie to licencjat z informatyki lub systemów informatycznych. Programista systemowy instaluje i utrzymuje oprogramowanie systemu operacyjnego oraz zapewnia wsparcie techniczne personelowi programisty. Minimalne wymagania edukacyjne to licencjat z informatyki lub systemów informatycznych. Specjalista ds. zapewniania jakości przegląda programy i dokumentację, aby upewnić się, że spełniają one standardy organizacji. Minimalne wymagania edukacyjne to licencjat z informatyki lub systemów informatycznych. Komputery dla użytkowników końcowych Stanowiska komputerów dla użytkowników końcowych obejmują specjalistów ds. wsparcia komputerowego i analityków pomocy technicznej. Specjalista ds. wsparcia komputerowego instaluje i obsługuje sprzęt i oprogramowanie komputerów osobistych. Minimalne wymagania edukacyjne to tytuł AAS w zakresie systemów informatycznych. Analityk pomocy technicznej zapewnia użytkownikom/klientom telefoniczne wsparcie w zakresie sprzętu, oprogramowania lub systemów telekomunikacyjnych. Minimalne wymagania edukacyjne to tytuł AAS w zakresie systemów informatycznych.
Stanowiska kierownicze Stanowiska kierownicze w usługach informacyjnych to stanowiska wyższego szczebla w organizacji, takie jak dyrektor ds. technologii. Dyrektor ds. technologii opracowuje strategiczny plan organizacyjny technologii i nadzoruje wdrażanie planu oraz kwestie polityki IT na wysokim szczeblu. Dyrektor ds. technologii musi być w stanie dostarczać kreatywne rozwiązania, mieć solidne umiejętności technologiczne i rozumieć wspierany biznes. Kluczowe są doskonałe umiejętności analityczne i zdolność do równoważenia priorytetów przy jednoczesnym zwracaniu uwagi na wynik finansowy. Warunkiem wstępnym na to stanowisko jest doświadczenie jako strateg techniczny; zarówno dogłębna, jak i szeroka wiedza i doświadczenie są ważne, podobnie jak doskonałe umiejętności komunikacyjne, interpersonalne i zarządzania.
KARIERY W EDUKACJI I SZKOLENIACH
Szerokie możliwości w edukacji i szkoleniach związanych z komputerami istnieją ze względu na wzrost wyrafinowania i złożoności dzisiejszych produktów komputerowych oraz szybki rozwój i wdrażanie nowych produktów. Szkoły, kolegia, uniwersytety i firmy prywatne potrzebują wykwalifikowanych instruktorów. Duże zapotrzebowanie na instruktorów doprowadziło w rzeczywistości do niedoboru wykwalifikowanych instruktorów i trenerów na uniwersytetach i w środowiskach korporacyjnych.
EDUKACJA CIĄGŁA
Szybkie zmiany technologiczne i globalny rynek nadal zwiększają potrzebę ciągłej edukacji ciągłej w celu utrzymania aktualności wiedzy i umiejętności. Pracodawcy, dostawcy sprzętu i oprogramowania, kolegia i uniwersytety oraz prywatne instytucje szkoleniowe oferują możliwości kształcenia ustawicznego. Dodatkowe szkolenia są świadczone przez seminaria rozwoju zawodowego oferowane przez organizacje zawodowe.
CERTYFIKATY BRANŻOWE
Certyfikaty branżowe zapewniają pracodawcom pewność standardowego poziomu kompetencji, umiejętności lub jakości w danym obszarze. Wiele organizacji oferuje programy certyfikacji technicznej dla swoich produktów. Standardowe programy nauczania, programy szkoleniowe i egzaminy służą do określenia, czy dana osoba kwalifikuje się do certyfikacji. Certyfikat jest dowodem osiągnięć zawodowych, poziomem kompetencji akceptowanym i cenionym przez branżę. Certyfikaty wzbogacają portfolio zatrudnienia i możliwości kariery. Wielu pracodawców preferuje kandydatów z certyfikatem przy zatrudnianiu. Ponadto certyfikacja może prowadzić do awansów i pomagać w rozwoju kariery.
Istnieje wiele możliwości wyboru kariery w prawie. Jednak praca i determinacja są wymagane do ukończenia szkoły prawniczej i zdania państwowego egzaminu adwokackiego. Aby zostać przyjętym do szkoły prawniczej, studenci muszą mieć ukończone studia licencjackie, chociaż zazwyczaj bez ograniczeń dotyczących wyboru kierunku studiów licencjackich. Studenci prawa mają tytuły licencjackie z zakresu biznesu, inżynierii, nauk ścisłych, historii, polityki i wielu innych dyscyplin.
ZAJMOWANIE SIĘ PRAKTYKĄ PRAWNICZĄ
Poszczególne stany administrują licencjonowaniem prawników. Wymagania dla prawników, aby mogli wejść do dziedziny prawa, różnią się w zależności od stanu. Zazwyczaj przyszły prawnik musi zdać państwowy egzamin adwokacki po ukończeniu szkoły prawniczej. W bardzo niewielu stanach osoba jest automatycznie przyjmowana do wykonywania zawodu po ukończeniu szkoły prawniczej. Osoba może przystąpić do egzaminów adwokackich i uzyskać licencję do wykonywania zawodu w więcej niż jednym stanie. Stany kontrolują również dyscyplinę po dopuszczeniu prawników do wykonywania zawodu. Skargi klientów lub innych osób można składać do stanowej izby adwokackiej, która je rozpatruje i w razie potrzeby nakłada kary dyscyplinarne. Dyscyplina może obejmować grzywny lub zawieszenia aż do wykluczenia z palestry. W wielu stanach stanowy sąd najwyższy rozpatruje środki dyscyplinarne nałożone na prawników.
OBSZARY PRAKTYKI PRAWNEJ
Prawnicy zajmują się organizacjami biznesowymi, osobami fizycznymi, międzynarodowym biznesem, stosunkami pracy, prawem edukacyjnym, prawem ubóstwa, badaniami i pisaniem prawniczym oraz innymi obszarami. Praktyka prawna z krajowymi organizacjami biznesowymi W Stanach Zjednoczonych prawnicy współpracują bezpośrednio z organizacjami biznesowymi w wielu dziedzinach, w których praktykują.
Spółki publiczne: Wiele dziedzin prawa dotyczy spółek publicznych (akcje dostępne do zakupu przez każdego inwestora). Na przykład kontrola i zarządzanie mają prawne konsekwencje, podobnie jak pozyskiwanie i utrzymywanie kapitału. Adwokaci są wzywani do rozstrzygania szerokiego zakresu sporów, takich jak te powstające między akcjonariuszem a korporacją.
Ustawodawstwo antymonopolowe: Prawo antymonopolowe zabrania ustalania cen, co może mieć miejsce, gdy przedsiębiorstwa uzyskują monopol na swoim polu. Główne ustawodawstwo w tej dziedzinie obejmuje ustawę Shermana z lat 90. XIX wieku, ustawę Claytona z 1914 r. i ustawę Cellar-Kefauver z 1950 r. Ustawa Robinsona-Patmana zabrania producentom dyskryminowania małych sprzedawców detalicznych na korzyść dużych sieci. Ustawy te są egzekwowane przez Federalną Komisję Handlu i Wydział Antymonopolowy Departamentu Sprawiedliwości.
Nieuczciwe praktyki handlowe: Te prawa obejmują różne rodzaje konkurencji biznesowej, zwłaszcza w odniesieniu do znaków towarowych, utrzymywania cen i dyskryminacji cenowej.
Patenty: Patenty są wydawane przez Urząd Patentowy i Znaków Towarowych rządu USA. Udzielają one wynalazcom wyłącznych praw do tworzenia, sprzedaży i używania wynalazków w Stanach Zjednoczonych przez określony czas. Patenty często wymagają porady prawnej.
Prawa autorskie: Prawa autorskie zapewniają ochronę oryginalnych dzieł literackich, dramatycznych, muzycznych lub artystycznych. Prawa te administruje Biuro Biblioteki Kongresu ds. Praw Autorskich.
Znaki towarowe: Znaki towarowe służą do odróżniania produktów jednej firmy od drugiej. Ich symbolami mogą być słowa lub słowa, nazwa, wzór, obraz lub dźwięk. Prawa do znaku towarowego mają nieograniczony okres obowiązywania. Firma może zarejestrować swój znak towarowy w Urzędzie Patentowym i Znaków Towarowych USA w Arlington w stanie Wirginia lub w biurze znaku towarowego w swoim stanie.
Rachunkowość: Sprawozdania księgowe zawierają dane finansowe dotyczące działalności firmy lub innej formy organizacji. Bilanse zawierają aktywa (rzeczy będące własnością), zobowiązania (długi) i wartość netto (aktywa pomniejszone o zobowiązania). Rachunki zysków i strat przedstawiają dochód za określony okres (dochód minus wydatki). Firmy, zwłaszcza te z akcjonariuszami, muszą przygotowywać uczciwe i ostrożne sprawozdania finansowe. Uchwalono bardzo rygorystyczne przepisy dotyczące praktyk księgowych.
Negocjacje: Adwokaci organizują różne negocjacje, w tym te dotyczące roszczeń o odszkodowanie za obrażenia, zarzutów karnych, sporów rodzinnych i sporów handlowych. Organizacje biznesowe: Organizacje biznesowe angażują się w prawo pracy, agencji, spółek partnerskich, spółek komandytowych i innych rodzajów stowarzyszeń niezarejestrowanych.
Branże regulowane: Cena, dostawa i usługi są częścią kontroli Regulation C w różnych branżach, takich jak agencje transportowe i usługi publiczne. Polityka regulacyjna może obejmować interakcje między organami ustawodawczymi, agencjami administracyjnymi i sądami. Zaawansowana praca prawna może być wymagana do planowania biznesowego i doradztwa dotyczącego kwestii korporacyjnych i podatkowych. Klienci często potrzebują reprezentacji przed organami regulacyjnymi i na rozprawach administracyjnych.
Umowy: Adwokaci angażują się w tworzenie odpowiedzialności wekslowej, interpretację słów i postępowania, a także charakter zobowiązań przyjmowanych poprzez zawieranie umów. Rozwiązują również problemy związane z naruszeniem umowy, nieuczciwością jako powodem uniknięcia odpowiedzialności umownej oraz prawami osób niebędących stronami umowy.
Jednolity kodeks handlowy: Artykuły 3, 4 i 5 dotyczą instrumentów negocjowalnych, systemów windykacji bankowej i akredytyw. Artykuł 9 dotyczy transakcji zabezpieczonych; Artykuł 7 dotyczy dokumentów tytułu własności.
Prawa wierzycieli i dłużników: Adwokaci zajmują się regulacją kredytów konsumenckich, w tym zajęciami, zajęciami, cesjami na rzecz wierzycieli, wyrokami i upadłością.
Prawo ubezpieczeniowe: Ta gałąź prawa zajmuje się ubezpieczeniami majątkowymi, na życie i odpowiedzialności cywilnej; formularzami ubezpieczeń od ognia i samochodów; oraz regulacją polityk i praktyk firm ubezpieczeniowych.
Środki zaradcze: Środki zaradcze w postaci quasi-kontraktu, powiernictwa konstruktywnego, zastawu słusznościowego i reformy muszą być stosowane w celu naprawienia wzbogacenia zabezpieczonego czynem niedozwolonym, częściowym wykonaniem umowy, przymusem lub błędem.
Kontrakty rządowe: Przepisy i regulacje mają zastosowanie do umów z organami i agencjami rządowymi.
Praktyka prawna dla osób fizycznych. Osoby fizyczne potrzebują szerokiego zakresu usług prawnych w obszarze biznesu. Niektóre usługi są świadczone dla inwestorów lub właścicieli w sytuacjach biznesowych; inne dla osób, które znajdują się w trudnej sytuacji
Powiernictwo i majątki: Należy wziąć pod uwagę kwestie prawne dotyczące systemów majątku wspólnego, federalnych podatków od darowizn i spadków od przeniesienia własności, planowania majątkowego nieobejmującego majątku, testamentów życia, delegowania decyzji dotyczących opieki zdrowotnej oraz darowizn na rzecz małoletnich dzieci, a także opieki nad nimi. Powiązane formy prawne obejmują powiernictwo życia i strategie darowizn.
Prawo rodzinne: Prawo rodzinne może obejmować relacje między małżeństwami, parami niebędącymi w związku małżeńskim lub parami przechodzącymi rozwód. Dodatkowe relacje rodzinne, które mogą obejmować prawników, obejmują rodzica i dziecko, rodziców niebędących w związku małżeńskim, dzieci zaniedbane, opiekę zastępczą i adopcję.
Podatki: Adwokaci mogą pomóc w planowaniu podatkowym dla osób fizycznych. zwłaszcza w przypadku problemów między podatnikiem a Internal Revenue Service lub państwowymi organami podatkowymi. Zajmują się również implikacjami podatkowymi dla organizacji korporacyjnej, reorganizacji i likwidacji. Niektórzy adwokaci zajmują się międzynarodowymi problemami podatkowymi, takimi jak przepisy jurysdykcyjne, sytuacje podatkowe między krajami uprzemysłowionymi a krajami rozwijającymi się oraz opodatkowanie osób zagranicznych w kraju przyjmującym.
Transakcje nieruchomości: W tej dziedzinie prawnicy zajmują się opcjami, umowami wiążącymi oraz prawami i obowiązkami między sprzedawcą a nabywcą, między innymi. Prawnicy zajmują się również podstawowym prawem dotyczącym umów gruntowych i hipotek, a także systemami rejestrowania nieruchomości. Pracują zarówno z kontrolą użytkowania gruntów, jak i prawem dotyczącym praw wodnych. Mogą również zajmować się prawem środowiskowym i instytucjami.
Praktyka prawna dla biznesu międzynarodowego Międzynarodowy handel na świecie staje się coraz bardziej powszechny i coraz bardziej skomplikowany pod względem prawnym.
To zwiększa liczbę ofert dla zainteresowanych prawników. Międzynarodowa praktyka prawna może obejmować kwestie uznawania i nieuznawania rządów i narodów, interpretacji traktatów i innych umów międzynarodowych, skutków pokoju i wojny oraz roszczeń międzynarodowych. Prawnicy mogą doradzać w zakresie ryzyka, założeń i korzyści wynikających z prowadzenia działalności gospodarczej w obcym kraju. Mogą pojawić się pytania dotyczące międzynarodowych transakcji handlowych i inwestycji, wpływu amerykańskich przepisów dotyczących papierów wartościowych i przepisów antymonopolowych oraz przepisów handlowych Stanów Zjednoczonych i innych krajów.
Prawo dotyczące stosunków pracy Przepisy stanowe i federalne dotyczą reprezentacji pracowników, układów zbiorowych i praktyk pracodawców i związków zawodowych. Przepisy te, ustawa National Labor Relations Act oraz powiązane przepisy federalne i stanowe dotyczące pracy często wymagają porady prawnej. Prawnicy udzielają porad w zakresie układów zbiorowych oraz w procesach negocjacyjnych i arbitrażowych. Przepisy takie jak te dotyczące uczciwych praktyk zatrudnienia, odszkodowań pracowniczych, uczciwych norm pracy, zasiłków dla bezrobotnych i ubezpieczeń społecznych chronią pracowników przed niepewnością, dyskryminacją, wyzyskiem ekonomicznym i szkodami fizycznymi. Ich celem jest ochrona przed nierównymi szansami związanymi z rasą, płcią, religią, wiekiem, niepełnosprawnością fizyczną i innymi czynnikami. Kwestie prawne związane z polityką publiczną wynikają z kwestii reprezentacji, ograniczeń prawa do strajku, arbitrażu skarg, procedur impasowych i zakresu negocjacji.
Praktyka edukacyjna Kwestie prawne wynikają z finansowania edukacji, integracji i segregacji, metod kar stosowanych wobec dzieci i alternatyw dla edukacji w szkołach publicznych.
Prawo o ubóstwie Chociaż często nie są w stanie zapłacić, ubodzy często potrzebują usług prawnych. Niektórzy ubodzy kontaktują się z kancelariami prawnymi działającymi w interesie publicznym lub biurami, które świadczą usługi prawne dla ubogich. W tej dziedzinie prawnicy zajmują się takimi kwestiami, jak prawa socjalne, zdrowie, edukacja, pomoc publiczna lub mieszkalnictwo.
Badania prawne i pisanie Niektórzy prawnicy zajmują się badaniami prawnymi i pisaniem. Praca ta obejmuje badania biblioteczne i komputerowe, pisanie streszczeń i memorandów, organizację materiałów prawnych i przewidywanie zasad prawa. Duża część tej aktywności ma miejsce w szkołach prawniczych lub na poziomie sądu apelacyjnego.
Inne obszary praktyki prawniczej Istnieje szereg dodatkowych obszarów praktyki prawniczej. Należą do nich problemy prawne związane z technologią i społeczeństwem, bioetyką, nauką, psychiatrią i próby osiągnięcia postępu w krajach rozwijających się.
Zarządzanie to bardzo ekscytująca i satysfakcjonująca kariera. Kariera w zarządzaniu oferuje status, ciekawą pracę i satysfakcję z bliskiej współpracy z innymi ludźmi. Ludzie są uważani za najważniejszy zasób w organizacjach. Jeśli będą działać skutecznie, organizacje odniosą sukces. Menedżerowie ściśle współpracują z ludźmi, od najwyższych rangą menedżerów po pracowników biurowych, aby zapewnić, że organizacje osiągną swoje cele. Kariera w zarządzaniu oferuje również możliwość uczynienia świata lepszym miejscem. Menedżerowie pomagają organizacjom odnieść sukces. Kiedy organizacje odnoszą sukces, zasoby są lepiej wykorzystywane, pracownicy są mniej zestresowani, w społeczeństwie jest mniej chaosu, a wszyscy mają lepszą jakość życia. Skuteczni menedżerowie odgrywają ważną rolę w kształtowaniu świata, w którym żyjemy. Certo (1997) podkreślił ten punkt, stwierdzając, że nasze społeczeństwo nie byłoby tak rozwinięte, jak jest dzisiaj, bez skutecznych menedżerów, którzy kierują organizacjami.
CO ROBIĄ MENEDŻEROWIE?
Zarządzanie to praca ludzi. Menedżer koordynuje pracę innych osób, aby zapewnić, że jednostka jest prowadzona wydajnie i rentownie. Menedżer może mieć bezpośrednią odpowiedzialność za grupę osób w jednym dziale lub zespół osób z kilku różnych działów. Dla niektórych menedżerów może to oznaczać nadzorowanie jednej osoby. Menedżerowie zapewniają ogólne kierownictwo i przywództwo dla organizacji. Menedżer ustala jasne cele dla zespołu i upewnia się, że wiedzą, na czym się skupiają, przydziela obowiązki członkom zespołu i zachęca ich do wykonywania tych obowiązków. Menedżer ocenia również rzeczywistą wydajność zespołu w odniesieniu do celów organizacyjnych i decyduje o awansach i podwyżkach wynagrodzeń, jeśli jest to właściwe. Gdy członkowie zespołu nie wykonują swojej pracy w sposób zadowalający, menedżer wprowadza zmiany niezbędne do zapewnienia, że osiągną cele firmy. Menedżerowie wykorzystują swoje umiejętności interpersonalne i biznesowe, takie jak marketing i kontrola kosztów, aby osiągnąć cele firmy, jednocześnie upewniając się, że mieszczą się w budżecie. Praca menedżera jest zróżnicowana. Menedżerowie są zaangażowani w zaplanowane i niezaplanowane działania. Działania te obejmują zaplanowane i niezaplanowane spotkania, wycieczki inspekcyjne, pisanie raportów, wprowadzanie nowych produktów, nieporozumienia między pracownikami, skargi klientów i zmiany w trendach biznesowych. Według Millera i współpracowników (1996) menedżer powinien być w stanie nieustannie przechodzić od osoby do osoby i od jednego tematu lub problemu do drugiego. Menedżer, który jest również właścicielem firmy, podejmuje wszystkie codzienne decyzje związane z firmą. Menedżerowie sprawiają, że rzeczy dzieją się w organizacjach. Decydują, co zostanie zrobione, kto to zrobi, kiedy to zostanie zrobione i jakie zasoby zostaną wykorzystane. Zatrudniają i szkolą nowych pracowników oraz koordynują działania swoich działów z innymi działami. Menedżerowie są sercem organizacji, siłą, która jednoczy wszystko w organizacji.
RODZAJE KARIER MENEDŻERSKICH
W dużych organizacjach menedżerowie pracują w różnych obszarach, w tym w działach operacyjnych, zasobach ludzkich, finansach i marketingu:
• Kierownicy ds. operacyjnych dbają o to, aby produkty i/lub usługi firmy spełniały standardy jakości i zaspokajały potrzeby klientów. Planują harmonogramy produkcji, aby zapewnić jak najefektywniejsze wykorzystanie zakładu, siły roboczej i materiałów. Kierownik ds. operacyjnych odpowiada za kontrolę produkcji, kontrolę zapasów, kontrolę jakości, układ zakładu i wybór lokalizacji. Nowo przybyli absolwenci rozpoczną pracę jako stażyści ds. zarządzania. Po pomyślnym ukończeniu programu zostaną awansowani na stanowisko kierownika produkcji, a następnie kierownika zakładu. Najwyższe stanowisko kierownicze to wiceprezes ds. operacji.
• Kierownicy ds. zasobów ludzkich zapewniają organizacji kompetentnych i produktywnych pracowników. Obowiązki kierownika ds. zasobów ludzkich obejmują planowanie zasobów ludzkich, rekrutację i selekcję pracowników, szkolenia i rozwój, projektowanie systemów wynagrodzeń i świadczeń oraz formułowanie systemów oceny wyników. W małych firmach jedna osoba może być odpowiedzialna za wszystkie działania związane z zasobami ludzkimi, podczas gdy w dużych firmach każdą funkcją zajmują się oddzielne działy.
• Kierownicy ds. finansowych zajmują się zasobami finansowymi organizacji. Są odpowiedzialni za takie działania, jak księgowość, zarządzanie gotówką i inwestycje. Prowadzą również aktualne rejestry dotyczące wykorzystania funduszy, przygotowują raporty finansowe i gromadzą informacje w celu oceny sytuacji finansowej organizacji.
• Kierownicy ds. marketingu odpowiadają za pozyskiwanie klientów do zakupu produktów lub usług organizacji. Opracowują strategię marketingową firmy, ustalają ceny i ściśle współpracują z personelem ds. reklamy i promocji, aby zapewnić odpowiednią promocję produktów.
Oprócz możliwości kariery w wyspecjalizowanych obszarach zarządzania omówionych powyżej, kariery menedżerskie są również dostępne w agencjach rządowych, szpitalach, agencjach non-profit, muzeach, instytucjach edukacyjnych, a nawet organizacjach politycznych. Dobrzy menedżerowie są również potrzebni w firmach zagranicznych i międzynarodowych. Wszystkie organizacje istnieją w określonych celach i potrzebują dobrych menedżerów, którzy pokierują ich operacjami, aby osiągnąć jak najlepsze wyniki. Niezależnie od rodzaju organizacji, menedżerowie są oczywiście jednym z jej najważniejszych zasobów. Istnieje wiele konkretnych stanowisk kierowniczych. Ich tytuły i obowiązki opisano poniżej.
Praktykanci ds. zarządzania pracują pod nadzorem doświadczonego menedżera podczas nauki. Otrzymują formalne szkolenie w różnych obszarach zarządzania. Stanowisko praktykanta ds. zarządzania ma na celu przygotowanie praktykantów do pracy jako administratorzy lub menedżerowie. Do ich obowiązków należy obsługa klienta, przygotowywanie harmonogramów pracy i pomoc w koordynacji usług wsparcia.
Kierownicy ds. stosunków pracy interesują się prawem pracy i są dobrymi komunikatorami. Negocjują układy zbiorowe pracy i opracowują procedury rozpatrywania skarg. Gdy pojawiają się problemy między kierownictwem a pracownikami, interpretują i administrują umową o pracę oraz rozwiązują spory zgodnie z warunkami umowy. Współpracują również ściśle z dyrektorem ds. zasobów ludzkich w kwestiach takich jak wynagrodzenia, świadczenia, emerytury i praktyki pracy.
Kierownicy ds. usług administracyjnych koordynują i kierują usługami pomocniczymi większych firm i agencji rządowych. Są odpowiedzialni za takie usługi, jak wsparcie administracyjne, zarządzanie dokumentacją, listy płac, planowanie konferencji, przetwarzanie informacji oraz dystrybucja i harmonogramowanie materiałów. Jednak niedawna restrukturyzacja korporacyjna spowodowała, że wiele organizacji zleca na zewnątrz swoje usługi administracyjne. Oznacza to, że zapotrzebowanie na menedżerów usług administracyjnych znacznie wzrośnie w firmach świadczących usługi konsultingowe, usługi zarządzania i usługi wsparcia obiektów.
Menedżerowie usług gastronomicznych mają bardzo podobne obowiązki do menedżerów restauracji, menedżerów cateringu i menedżerów restauracji typu fast-food. W rzeczywistości menedżer usług gastronomicznych pracuje w różnych obiektach, w tym w restauracjach typu fast-food, szpitalach i szkolnych stołówkach. Menedżerowie usług gastronomicznych koordynują wszystkie aspekty działalności związanej z żywnością i napojami w organizacji. Wyznaczają standardy jakości usług gastronomicznych, zatrudniają i przydzielają pracowników oraz planują menu. Wykonują również pewne obowiązki administracyjne, takie jak płace i inwentaryzacja.
Menedżerowie budynków, zwani również menedżerami nieruchomości, administrują nieruchomościami wynajmowanymi - takimi jak budynki mieszkalne i budynki biurowe - dla właścicieli. Jako agenci właścicieli, sprzedają puste powierzchnie, negocjują umowy najmu, ustalają i pobierają czynsze oraz zapewniają bezpieczeństwo i konserwację nieruchomości. Zajmują się również wszystkimi księgowościami i dokumentami księgowymi oraz dostarczają okresowe raporty właścicielom.
Menedżerowie centrów fitness są sprawni fizycznie i interesują się nauką o ćwiczeniach. Firmy, agencje rządowe i statki wycieczkowe z obiektami fitness poszukują menedżerów, którzy potrafią opracować programy, które zaspokoją potrzeby klientów w zakresie zdrowia i sprawności fizycznej. Menedżer centrum fitness przeprowadza badania w celu określenia potrzeb klientów, opracowuje i zarządza programami dla centrum i jego klientów oraz monitoruje wymogi dotyczące zdrowia i bezpieczeństwa. W małych centrach menedżer jest również odpowiedzialny za dostarczanie szkoleń fitness i konserwację sprzętu centrum.
Kierownicy miast, zwani również menedżerami miasteczek, odpowiadają za codzienne funkcjonowanie różnych departamentów władz miejskich. Głównym obowiązkiem menedżerów miast jest przygotowywanie budżetów do zatwierdzenia przez radę miejską. Menedżer miasta musi również przedstawiać członkom rady raporty dotyczące bieżących i zakończonych projektów.
Kierownicy usług zdrowotnych pracują w klinikach, szpitalach i organizacjach zajmujących się utrzymaniem zdrowia (HMO). Podejmują większość decyzji biznesowych lub operacyjnych w placówce opieki zdrowotnej. Menedżer usług zdrowotnych ustala procedury rozliczeniowe, zarządza budżetami, nadzoruje personel i współpracuje z opinią publiczną. Kierownicy usług zdrowotnych zaczynają jako stażyści ds. zarządzania lub asystenci administratorów.
Kierownicy hoteli i moteli odpowiadają za pełen zakres czynności w obiekcie noclegowym. Należą do nich rejestracja gości i wymeldowanie, sprzątanie, księgowość, konserwacja i ochrona oraz obsługa gastronomiczna. Kierownik jest również odpowiedzialny za koordynację działań, takich jak spotkania i inne wydarzenia specjalne. W dużych hotelach zastępcy kierowników odpowiadają za działalność różnych działów. Kierownicy hoteli zaczynają jako kierownicy działów, a po zdobyciu doświadczenia awansują na stanowisko kierownika.
Kierownicy ds. sprzedaży detalicznej nadzorują pracowników i zajmują się skargami klientów. Ponadto odpowiadają za zarządzanie zapasami sklepu. Prowadzą aktualne rejestry towarów, podejmują decyzje dotyczące cen i decydują o reklamach i promocjach. Kierownik ds. sprzedaży detalicznej pracuje długie godziny i może być zatrudniony w wielu sklepach, w tym domach towarowych, sklepach dyskontowych lub sklepach specjalistycznych. Kierownicy ds. sprzedaży detalicznej często zaczynają jako zastępcy kierowników odpowiedzialni za dział w dużym sklepie. Następnie awansują na stanowisko kierownika ds. merchandisingu lub kierownika sklepu.
Kierownicy sprzedaży istnieją w niemal każdej firmie i pełnią jedną z najważniejszych funkcji w organizacji. Znajdują klientów na produkty i/lub usługi firmy, a tym samym zapewniają firmie przychody. Rekrutują, zatrudniają, szkolą i nadzorują siłę sprzedaży firmy. Kierownicy sprzedaży zaczynają jako przedstawiciele handlowi. Bycie odnoszącym sukcesy przedstawicielem handlowym prowadzi do awansu na starszego przedstawiciela handlowego lub kierownika sprzedaży, a następnie na kierownika sprzedaży.
Kierownicy ds. zaopatrzenia, czasami nazywani agentami ds. zakupów lub nabywcami przemysłowymi, kupują materiały i dostawy potrzebne firmie. Muszą znać różnych dostawców i ich oferty. Muszą uzyskać najlepsze możliwe oferty dla swojej firmy pod względem ceny, jakości, dostaw i harmonogramów płatności. Kierownicy w dużych firmach czasami specjalizują się w określonych typach zakupów.
WYMAGANIA EDUKACYJNE
Wymagania edukacyjne dla kariery w zarządzaniu są różne. Jednak większość pracodawców wymaga dyplomu ukończenia studiów wyższych z zakresu sztuk wyzwolonych, nauk społecznych lub administracji biznesowej. Powszechnym wymogiem jest również tytuł magistra administracji biznesowej (MBA). Dla studentów zainteresowanych dostaniem się na programy stażowe w zakresie zarządzania w dużych korporacjach, MBA daje najlepszą możliwość skorzystania z tych najlepszych programów. MBA lub tytuł magistra administracji usługami zdrowotnymi jest zazwyczaj wymagany do kariery w zarządzaniu usługami zdrowotnymi. Oprócz dużych korporacji, wiele innych organizacji ma programy stażowe w zakresie zarządzania, do których mogą przystąpić absolwenci szkół wyższych. Takie programy są reklamowane na targach szkół wyższych lub za pośrednictwem usług pośrednictwa pracy w szkołach wyższych. Programy te obejmują zajęcia w klasie i mogą trwać tydzień lub nawet rok. Na przykład szkolenie dla kierownika domu towarowego może obejmować pracę jako sprzedawca w kilku działach, aby poznać działalność sklepu, zanim zostanie awansowany na stanowisko zastępcy kierownika. W małych organizacjach, w zależności od rodzaju branży, doświadczenie może być jedynym wymogiem koniecznym do uzyskania stanowiska menedżera. Gdy pojawia się wakat na stanowisku kierowniczym, asystent menedżera często awansuje na to stanowisko na podstawie dotychczasowych osiągnięć. W dużych organizacjach istnieje bardziej formalny proces. Stanowisko kierownicze, które ma zostać obsadzone, jest ogłaszane z bardzo szczegółowymi wymaganiami dotyczącymi wykształcenia i doświadczenia. Osoby zainteresowane karierą w zarządzaniu powinny mieć dobre umiejętności komunikacyjne i umieć dobrze współpracować z różnymi ludźmi, od innych menedżerów, przełożonych i specjalistów, po urzędników i pracowników fizycznych. Powinny być analityczne, elastyczne i zdecydowane. Powinny również umieć koordynować kilka działań jednocześnie i być w stanie szybko rozwiązywać problemy. Ważna jest również umiejętność pracy pod presją i radzenia sobie z terminami. Rekruterzy szukają osób z inicjatywą, które potrafią wykorzystać swoją inicjatywę, rozpoznać, co należy zrobić, lubią odpowiedzialność i mają wysokie standardy etyczne. Korporacje poszukują osób z inicjatywą i graczy zespołowych.
Kobiety i menedżerowie mniejszości. Przyszłość jest świetlana dla kobiet i mniejszości zainteresowanych zarządzaniem. Tytuł VII ustawy o prawach obywatelskich z 1964 r. zakazuje dyskryminacji w zatrudnieniu ze względu na rasę, kolor skóry, religię, płeć lub pochodzenie narodowe. Wiele firm, ze względu na zasady działania afirmatywnego, aktywnie poszukuje kobiet i mniejszości do obsadzania stanowisk kierowniczych. W rezultacie kobiety są dobrze reprezentowane na niższych szczeblach zarządzania; jednak liczba najwyższych stanowisk kierowniczych pozostaje niska. Tylko około 10 procent najwyższych stanowisk w 500 największych firmach w USA zajmują kobiety. Jednak firmy podejmują kroki, aby przyciągać i awansować kobiety na stanowiska kierownicze. Grupy mniejszościowe są nadal niedoreprezentowane na wszystkich szczeblach zarządzania. Badanie Rutgers University (cytowane w Certo, 1997) wykazało, że w 400 firmach z listy Fortune 1000 mniej niż 9 procent wszystkich menedżerów należało do grupy mniejszościowej (str. 16). Ponieważ coraz więcej osób wchodzących na rynek pracy należy do różnych grup mniejszościowych, dla firm staje się koniecznością rekrutacja utalentowanych menedżerów mniejszościowych. Istnieje wiele możliwości kariery menedżerskiej dostępnych we wszystkich typach organizacji, zwłaszcza małych i średnich przedsiębiorstwach. Każda organizacja poszukuje kompetentnych menedżerów, którzy mogą zwiększyć wydajność pracowników i pomóc firmie odnieść sukces. Mosley i współpracownicy (1996) ujęli to najlepiej, gdy powiedzieli: "Menedżerowie w organizacjach każdej wielkości, we wszystkich branżach i na wszystkich szczeblach mają wpływ na wydajność stanowią różnicę między sukcesem a porażką swoich firm".
Czy kariera w marketingu jest dla Ciebie? Aby odnieść sukces w karierze marketingowej, osoba musi mieć dobrą komunikację, krytyczne myślenie i umiejętności interpersonalne. Oprócz tych umiejętności, większość osób zatrudnionych w zawodach związanych z marketingiem posiada doskonałe umiejętności zarządzania czasem, zdolność do pracy z szeroką gamą ludzi i zdolność do samomotywacji. Osoby te muszą być w stanie ustalać harmonogramy, cele i zadania - i ich przestrzegać. Według amerykańskiego Biura Statystyki Pracy, liczba osób, które zarabiają na życie w karierach związanych z marketingiem - reklama, sprzedaż lub public relations - ma gwałtownie wzrosnąć między końcem stulecia a rokiem 2005 (Levine i Salmon, 1999). Obecnie prawie jedna trzecia Amerykanów jest zatrudniona na stanowiskach związanych z marketingiem, a zasady marketingu są stosowane w coraz większej liczbie organizacji biznesowych i niebiznesowych - firm usługowych, instytucji non-profit, kandydatów politycznych itd. . Dlatego też wysokie zapotrzebowanie na osoby ze szkoleniem marketingowym staje się krytycznym kryterium zatrudnienia na początku XXI wieku. Przedstawiono dwa główne wyjaśnienia ciągle rosnącego zapotrzebowania na umiejętności marketingowe - (1) deregulacja głównych gałęzi przemysłu (bankowość, telekomunikacja i transport) oraz (2) zwiększona konkurencja zagraniczna. Biorąc pod uwagę rosnącą rolę marketingu w gospodarce USA, członkowie siły roboczej XXI wieku muszą być zaznajomieni z głównymi zawodami związanymi z marketingiem. Według Kotlera (1994) oraz Khlupina i Shibiko (1998), głównymi zawodami w marketingu są: (1) reklama, (2) zarządzanie marką i produktem, (3) marketing przemysłowy, (4) marketing międzynarodowy, (5) badania marketingowe, (6) planowanie nowych produktów, (7) dystrybucja fizyczna/ zarządzanie dystrybucją, (8) public relations, (9) marketing detaliczny i (10) marketing sprzedaży i promocji sprzedaży. Poniżej omówiono każdy z tych głównych zawodów marketingowych.
Reklama. Reklama jest ważną działalnością biznesową, która wymaga umiejętności planowania, zdolności gromadzenia faktów, kreatywności, talentu artystycznego oraz umiejętności komunikacji pisemnej i ustnej. Osoby zatrudnione w reklamie zazwyczaj wykonują następujące zadania: (1) szukają informacji faktycznych, (2) czytają z zapałem, (3) pożyczają pomysły, (4) rozmawiają z klientami, (5) opracowują układy druku, projekty opakowań, storyboardy, logotypy korporacyjne, znaki towarowe i symbole, (6) określają styl i rozmiar typografii oraz (7) organizują szczegóły reklamy do reprodukcji. Tak więc reklama obejmuje wszystkie elementy marketingu - produkt, cenę, promocję i miejsce. Ponieważ wszystkie powyższe zadania wymagają współpracy z osobami, które są klientami lub potencjalnymi klientami, dana osoba musi być towarzyska, dyplomatyczna i szczera. Ponadto musi być zmotywowana i zdolna do przedstawiania informacji o produkcie różnym odbiorcom.
Zarządzanie marką i produktem (BPM). Osoby zaangażowane w BPM to planiści, dyrektorzy i kontrolerzy pozycjonowania dóbr konsumpcyjnych w opakowaniach przeznaczonych do sprzedaży na dramatycznie i szybko zmieniającym się rynku. Marketingowcy BPM wykorzystują badania, a także pakowanie, produkcję i prognozowanie, aby pozycjonować produkty do sprzedaży najbardziej odpowiedniej grupie odbiorców. Osoby zatrudnione w tym aspekcie marketingu muszą mieć zdolności przywódcze, aby przenieść produkt z nieznanego do świadomości krajowej w stosunkowo krótkim czasie. Zazwyczaj obowiązki zawodowe marketingowców BPM rosną wraz ze wzrostem i rozwojem konkretnego produktu. W związku z tym odnoszący sukcesy marketingowcy BPM działają w środowisku o dużej presji, szybkim tempie i stale zmieniającym się, ponieważ główny składnik marketingu BPM koncentruje się na sytuacji finansowej produktu w trakcie opracowywania. Ponadto marketingowcy BPM muszą być zorientowani na wyniki i kreatywni; posiadać silne umiejętności interpersonalne, komunikacyjne i analityczne; mieć skłonności przedsiębiorcze; i wykazywać wysoki poziom dyplomacji, wytrwałości i motywacji.
Marketing przemysłowy. Marketing przemysłowy obejmuje planowanie, sprzedaż i serwisowanie produktów wykorzystywanych w celach komercyjnych lub biznesowych. Oprócz doskonałych umiejętności komunikacji ustnej i pisemnej, marketingowcy przemysłowi muszą być niezależnymi osobami, które potrafią zrozumieć wymagania klientów, a także posiadać wiedzę, aby zaproponować zakup konkretnego produktu, który zaspokoi ich potrzeby i pragnienia. W istocie marketingowcy przemysłowi są konsultantami, którzy pomagają klientom w ustaleniu odpowiedniego produktu dla ich konkretnych potrzeb. Niezależnie od tego, czy są zatrudnieni na stanowiskach sprzedaży, serwisu, projektowania produktów czy badań marketingowych, marketingowcy przemysłowi muszą rozwijać i utrzymywać stałe relacje biznesowe z dostawcami towarów i usług, a także z klientami. Dlatego relacja sprzedaży jest procesem utrzymywania i budowania ciągłych relacji biznesowych. Podobnie jak w każdej karierze związanej z marketingiem, marketingowcy przemysłowi muszą mieć doskonałe umiejętności interpersonalne, a także dobre umiejętności komunikacji ustnej i pisemnej. Ponadto, odnoszący sukcesy marketingowiec przemysłowy powinien mieć szerokie wykształcenie ze szczególnym uwzględnieniem technologii, aby móc powiązać tę technologię z ludzkimi potrzebami i pragnieniami.
Marketing międzynarodowy. Wraz ze wzrostem roli przemysłu zagranicznego w Stanach Zjednoczonych, a także rosnącymi interesami USA za granicą, osoby z odpowiednimi umiejętnościami językowymi, a także zrozumieniem wybranych kultur obcych, są potrzebne do pomocy w codziennych operacjach biznesowych. Aby móc prowadzić działalność gospodarczą skutecznie i wydajnie oraz wdrażać strategie marketingowe za granicą, międzynarodowi marketingowcy muszą rozumieć klimat społeczny, ekonomiczny i polityczny krajów obcych. Personel marketingowy zainteresowany tą dziedziną może być zobowiązany do podróżowania i/lub przeprowadzki do kraju obcego w celu nadzorowania działalności firmy i tworzenia obecności w gospodarce tego kraju. Oprócz wymogu językowego potencjalni międzynarodowi marketingowcy muszą mieć odpowiednie umiejętności komunikacyjne, a także umiejętności dyplomatyczne, aby współpracować z zagranicznymi liderami i funkcjonować w zagranicznych systemach gospodarczych.
Badania marketingowe. Badacze marketingowi są proszeni o ustalenie powodu(ów), dla których dany produkt jest lub nie jest kupowany przez konsumentów. Na podstawie interpretacji danych zebranych w badaniach marketingowych, badacze rynku formułują zalecenia dotyczące ulepszania lub eliminowania istniejących produktów, a także opracowywania nowych produktów. Ponadto działania promocyjne opierają się na danych zebranych przez badaczy marketingu. Osoby zatrudnione w zawodach związanych z badaniami marketingowymi muszą rozumieć statystykę, analizę przetwarzania danych/informacji, psychologię, zachowania konsumentów i komunikację. Badacze marketingu współpracują z innymi zawodami marketingowymi, aby zdefiniować problemy w ramach określonej linii produktów, a także zidentyfikować odpowiednie procesy, które należy wykorzystać do analizy i rozwiązania tych problemów. Krytycznym elementem tego stanowiska jest umiejętność przedstawiania rozwiązań problemów biznesowych w sposób, który jest łatwo zrozumiały dla współpracowników i wyborców. W szczególności badacze marketingu dostarczają informacji dotyczących konsumentów, środowiska marketingowego i konkurencji odpowiednim wewnętrznym i zewnętrznym odbiorcom. Dlatego też silne umiejętności analityczne, metodologiczne i komunikacyjne są koniecznością, aby odnieść sukces na tym polu.
Planowanie nowego produktu. Planowanie nowego produktu obejmuje tworzenie i rozwijanie nowych produktów dla organizacji. Ponieważ osoby, które wchodzą na tę arenę, zazwyczaj odniosły sukces w innych obszarach marketingu, mają zazwyczaj doskonałą wiedzę i doświadczenie w marketingu, znają procesy prowadzenia badań marketingowych, są w stanie generować prognozy sprzedaży i mają doświadczenie w technologii. Marketer planujący nowy produkt konceptualizuje, bada i ocenia nowe pomysły. Podczas procesu oceny marketer planujący nowy produkt bierze pod uwagę zarówno wykonalność produkcji produktu, jak i potencjalną rentowność produktu. Osoby te muszą również posiadać umiejętność motywowania, koordynowania i kierowania innymi. Planowanie nowego produktu ma zastosowanie w marketingu produktów konsumenckich, usług konsumenckich, usług szpitalnych i medycznych oraz programów usług publicznych, aby wymienić tylko kilka obszarów. Ponieważ rozwój nowych produktów ciągle się zmienia, osoba, która wchodzi w tę dziedzinę, powinna mieć wysoki stopień tolerancji na niepewność i nieznane, a mimo to być w stanie opracować określony "plan działania" i "ocenę", aby poinformować przełożonych o sukcesie z nowymi produktami.
Dystrybucja fizyczna/zarządzanie dystrybucją. Dystrybucja fizyczna jest jedną z największych dziedzin marketingu i została zdefiniowana jako analiza, planowanie i kontrola działań związanych z zaopatrzeniem i dystrybucją towarów. Działania związane z procesem dystrybucji fizycznej obejmują transport, magazynowanie, prognozowanie, przetwarzanie zamówień, inwentaryzację, planowanie produkcji, wybór lokalizacji i obsługę klientów. Osoby zatrudnione w tym obszarze marketingu zajmują się procesami lub metodami potrzebnymi do dostarczenia produktu od producenta do hurtowników, do sprzedawców detalicznych, a ostatecznie do konsumenta. Proces dystrybucji fizycznej jest rozległym i zróżnicowanym obszarem, który obejmuje fizyczny transport produktów i różne działania związane z zakupami, sprzedażą i funkcjami zarządzania kanałami. Osoby, które wchodzą w marketing dystrybucji fizycznej, potrzebują interpersonalnych umiejętności przywódczych, aby radzić sobie z różnorodną i wymagającą publicznością wewnętrzną i zewnętrzną, a także doskonałych umiejętności analitycznych i komunikacyjnych.
Public relations. Marketingowcy public relations albo pomagają w zarządzaniu wizerunkiem produktów lub osób, albo przewidują i radzą sobie z problemami lub skargami publicznymi. W ten sposób osoby zatrudnione w aspekcie public relations w marketingu tworzą wizerunek lub wiadomość dla lub na temat osoby lub organizacji, a także utrzymują ten wizerunek w mediach. Ten wizerunek lub wiadomość musi być skutecznie, wydajnie i przekonująco przekazywana docelowej grupie odbiorców. Aby odnieść sukces w public relations, osoba musi być zorientowana na ludzi i mieć doskonałe umiejętności komunikacji ustnej i pisemnej, a także doświadczenie w dziennikarstwie.
Marketing detaliczny. Osoby pracujące w handlu detalicznym mają bezpośredni kontakt z konsumentami lub klientami. Marketing detaliczny obejmuje również zarządzanie personelem sprzedaży, wybór i zamawianie towarów oraz promocję wybranych towarów, a także kontrolę zapasów, ochronę sklepu i księgowość produktów. Typowe prace to kupcy, kierownicy sprzedaży, kierownicy działów i kierownicy sklepów. Aby odnieść sukces w marketingu detalicznym, jednostki muszą być zmotywowane i posiadać doskonałe umiejętności interpersonalne. Szybko rozwijającym się komponentem marketingu detalicznego jest marketing bezpośredniej odpowiedzi (DRM). DRM próbuje dostarczyć produkt od producenta do konsumenta za pomocą poczty bezpośredniej, mediów drukowanych i nadawanych, marketingu telefonicznego, katalogów, prezentacji domowych, marketingu bezpośredniego, zamówień elektronicznych i przelewów pieniężnych oraz wideotekstu. Atrybuty niezbędne do osiągnięcia sukcesu w obszarze DRM obejmują kreatywność, inicjatywę, wytrwałość i kompetencje ilościowe. W istocie marketerzy detaliczni wykorzystują swoją wiedzę i kompetencje zawodowe, aby zwiększyć zyski firmy, informując różne grupy odbiorców o odpowiednich asortymentach towarów i usług w lokalizacjach, do których można łatwo dotrzeć.
Sprzedaż i promocja sprzedaży. Marketingowcy sprzedaży i promocji sprzedaży (SSPM) muszą mieć dogłębną wiedzę na temat produktów swojej firmy. SSPM muszą nie tylko sprzedawać produkt, ale także rozwijać i utrzymywać efektywne relacje z klientami. Głównym celem SSPM jest informowanie klientów i dostarczanie im odpowiednich produktów w szybki sposób. Takie osoby skupiają się na dostarczaniu informacji potencjalnym klientom/klientom poprzez bezpośrednią i osobistą interakcję z nimi. Poza tym zamykają sprzedaż i utrzymują istniejące konta, aby zapewnić zadowolenie i lojalność klientów/klientów. Aby odnieść sukces, osoba musi znać produkt, klientów i rynek/rynki. Ponadto, dobra znajomość ludzi i odpowiednie umiejętności interpersonalne są niezbędne, aby radzić sobie z różnorodną i wymagającą publicznością wewnętrzną i zewnętrzną. Ponieważ proces sprzedaży obejmuje przekonującą dwustronną komunikację między sprzedawcą a klientem, osoby w tej dziedzinie marketingu muszą być zorientowane na ludzi, a także posiadać wiedzę na temat produktu i sposobu, w jaki produkt może być używany do zaspokajania potrzeb i pragnień kupujących.
WNIOSEK
W XXI wieku rola marketingu w gospodarce USA ulegnie zmianie, ponieważ konsumenci będą reagować na ciągle zmieniającą się technologię, a firmy na ciągle zmieniający się rynek. Ze względu na zmieniającą się technologię i zmieniający się rynek, role i funkcje konwencjonalnego marketingu, jaki jest znany dzisiaj, będą nieustannie przemyślane i zdefiniowane na nowo. Ponadto cztery P marketingu - produkt, cena, miejsce i promocja - również zostaną zdefiniowane na nowo i zrestrukturyzowane. Wraz z dynamicznymi zmianami, którym podlega środowisko marketingowe, zapotrzebowanie na personel zorientowany na marketing będzie nadal rosło, co sprawi, że kariery związane z marketingiem staną się ekscytującym wyborem zawodowym w XXI wieku.
Słowo kanał może przywodzić na myśl szlak wodny, taki jak kanał La Manche, którym statki przewożą ludzi i ładunki. Albo może przywodzić na myśl korytarz, taki jak kanał La Manche, tunel kolejowy pod kanałem La Manche. Oba obrazy sugerują obecność ścieżek lub torów, którymi płyną towary, usługi lub idee. Ten obraz oferuje dobry punkt wyjścia do zrozumienia kanałów dystrybucji. Termin kanał marketingowy został pierwotnie użyty do opisania kanałów handlowych, które łączyły producentów towarów z użytkownikami towarów. Każdy przepływ produktów lub usług wymaga wymiany. Zawsze, gdy coś namacalnego (takiego jak komputer) lub niematerialnego (takiego jak dane) jest przekazywane między osobami lub organizacjami, następuje wymiana. Dlatego kanały marketingowe umożliwiają wymianę. W jaki sposób ułatwiają wymianę? Być może kluczową częścią każdego kanału dystrybucji jest pośrednik. Pośrednicy kanałowi to osoby lub organizacje, które tworzą wartość lub użyteczność w relacjach wymiany. Pośrednicy generują formę, miejsce, czas i/lub wartości własnościowe między producentami i użytkownikami towarów lub usług. Kanały marketingowe były tradycyjnie postrzegane jako pomost między producentami a użytkownikami. Jednak ten tradycyjny pogląd nie wyjaśnia w pełni skomplikowanej sieci relacji leżących u podstaw przepływów marketingowych - wymiany towarów, usług i informacji. Aby to zilustrować, rozważmy zakup leku na receptę. Aby uzyskać autoryzację na zakup leku, należy udać się do lekarza w celu uzyskania recepty. Następnie można nabyć lek z jednego z kilku źródeł detalicznych, w tym sieci sklepów spożywczych (takich jak Kroger′s), dyskontów masowych (takich jak Wal-Mart), aptek osiedlowych, a nawet aptek wirtualnych (takich jak Drugstore.com). Każdy z tych punktów sprzedaży leków na receptę jest kanałem marketingowym. Producenci farmaceutyczni, dystrybutorzy i ich dostawcy są równie ważnymi ogniwami w tych kanałach dystrybucji produktów farmaceutycznych. Zaawansowane systemy komputerowe śledzą każdą pigułkę, kapsułkę i tabletkę od punktu produkcji u producenta farmaceutycznego aż do punktu sprzedaży w punktach sprzedaży detalicznej na całym świecie. Aby docenić złożoność kanałów marketingowych, wymianę należy uznać za proces dynamiczny. Relacje wymiany same w sobie nieustannie ewoluują, ponieważ nowe rynki i technologie na nowo definiują globalny rynek. Rozważmy na przykład, że pojawienie się World Wide Web stworzyło nowy kanał dystrybucji, który obecnie odpowiada za ponad 1,3 biliona dolarów w elektronicznych wymianach. Może to być zaskakujące, że najszybciej rozwijający się segment handlu elektronicznego obejmuje nie kanały typu business-to-consumer (nazywane B2C w dzisiejszym języku internetowym), ale kanały typu business-to-business (B2B). Niezależnie od tego, czy te procesy wymiany zachodzą między producentami i ich dostawcami, sprzedawcami detalicznymi i konsumentami, czy w jakiejś innej relacji kupujący-sprzedający, kanały marketingowe oferują ważny sposób budowania przewagi konkurencyjnej na dzisiejszym globalnym rynku. Dzieje się tak z dwóch głównych powodów:
• Strategia dystrybucji leży u podstaw wszystkich udanych strategii wejścia na rynek i ekspansji. Globalizacja produkcji i marketingu wymaga rozwoju relacji wymiany, aby regulować przepływ towarów i usług. Kiedy popijasz swoją ulubioną mieszankę kawy w osiedlowym Starbucks, pomyśl, że konsumenci w Chinach, Libanie i Singapurze mogą popijać tę samą mieszankę. Następnie zastanów się, w jaki sposób najlepsze ziarna kawy z Kostaryki lub Kolumbii trafiają do tysięcy osiedlowych kawiarni, lotnisk i sklepów spożywczych na całym świecie.
• Nowe technologie tworzą wymianę informacji w czasie rzeczywistym (równoległą) i skracają cykle i zapasy. Weźmy na przykład Dell Computer, który produkuje komputery na zamówienie, dostosowane do indywidualnych preferencji klientów. Jednocześnie Dell jest w stanie dostosować swoje zapotrzebowanie na materiały wejściowe (takie jak chipy) do popytu klientów na swoje komputery. Dell wykorzystuje możliwości produkcji just-in-time. Organizacje oparte na Internecie obecnie energicznie konkurują z tradycyjnymi dostawcami, producentami, hurtownikami i sprzedawcami detalicznymi. W wirtualnym starciu biorą udział organizacje stacjonarne (mające siedzibę fizyczną) i organizacje typu click-and-mortar (mające siedzibę wirtualną).
DEFINIOWANIE KANAŁÓW MARKETINGOWYCH
Grecki filozof Heraklit napisał: "Nic nie trwa, tylko zmiana". Kanały marketingowe to trwałe, ale elastyczne systemy. Porównywano je do systemów ekologicznych. Myślenie o kanałach dystrybucji w ten sposób wskazuje na wyjątkowe, ekologiczne powiązania, które istnieją między uczestnikami w ramach dowolnego kanału marketingowego. Wszystkie kanały marketingowe to połączone systemy jednostek i organizacji, które są wystarczająco zwinne, aby dostosować się do zmieniających się rynków. Ta koncepcja połączonego systemu sugeruje, że relacje wymiany kanałów są rozwijane w celu budowania trwałych mostów między kupującymi i sprzedającymi. Każda strona może wówczas tworzyć wartość dla siebie poprzez proces wymiany, który dzieli ze swoim innym członkiem kanału. Tak więc kanał dystrybucji obejmuje układ relacji wymiany, które tworzą wartość dla kupujących i sprzedających poprzez nabycie (zakup), konsumpcję (wykorzystanie) lub eliminację (utylizację) towarów i usług.
EWOLUCJA KANAŁÓW
Kanały marketingowe zawsze wyłaniają się z wymagań rynku. Jednak rynki i ich potrzeby ciągle się zmieniają. Prawdą jest zatem, że kanały marketingowe działają w stanie ciągłej ewolucji i transformacji. Kanały dystrybucji muszą stale dostosowywać się do zmian na globalnym rynku. Pamiętaj: Nic nie trwa, tylko zmiana. Na początku XIX wieku większość towarów była nadal produkowana w gospodarstwach rolnych. Miejsce produkcji musiało znajdować się blisko miejsca konsumpcji. Jednak wkrótce potem rewolucja przemysłowa spowodowała znaczącą zmianę w amerykańskiej populacji ze społeczności wiejskich do powstających miast. Te ośrodki miejskie produkowały rynki, które potrzebowały większych i bardziej zróżnicowanych pakietów towarów i usług. Jednocześnie rozwijająca się industrializacja wymagała większego asortymentu zasobów produkcyjnych, od surowców po części maszyn. Transport, montaż i ponowna wysyłka tych towarów stały się krytyczną częścią produkcji. W latach 40. XX wieku amerykański produkt narodowy brutto (PNB) rósł w niezwykłym tempie. Po zakończeniu II wojny światowej zapasy towarów zaczęły się gromadzić, gdy popyt rynkowy się ustabilizował. Koszty uśpionych zapasów - towarów, których nie można natychmiast wymienić na gotówkę - wzrosły wykładniczo. Postęp w metodach produkcji i dystrybucji skupił się teraz na ograniczaniu kosztów, kontroli zapasów i zarządzaniu aktywami. Marketingowcy wkrótce przeszli z orientacji produkcyjnej na sprzedażową. Postawy takie jak "dobry produkt sprzeda się sam" lub "możemy sprzedać wszystko, co wyprodukujemy" zanikły. Marketingowcy stanęli przed koniecznością zwiększenia wydatków na sprzedaż i reklamę, aby przekonać poszczególnych klientów do kupowania ich konkretnych marek. Klasyczna klasyfikacja czterech P zmiennych marketing mix - produktu, ceny, promocji i miejsca - wyłoniła się jako zasada marketingowa. Kwestie dystrybucji zostały zdegradowane do domeny miejsca. Ta nowa orientacja sprzedaży zainspirowała rozwój nowych pośredników, ponieważ producenci szukali nowych sposobów na rozszerzenie zasięgu rynku na coraz bardziej mobilną populację. Orientacja sprzedaży wymagała ustanowienia bardziej intymnego dostępu do obecnie bardziej zróżnicowanego rynku. W odpowiedzi na to, hurtowi i detaliczni pośrednicy ewoluowali, aby dotrzeć do konsumentów mieszkających na terenach wiejskich, nowo powstających przedmieściach i gęsto zaludnionych ośrodkach miejskich. Pionierzy detaliczni, tacy jak John Wanamaker w Filadelfii i Marshall Field w Chicago, szybko wyrośli na gigantów w tym odważnym, nowym świecie handlu detalicznego. Mali detaliści również dojrzeli, oferując specjalistyczne operacje dostosowane do potrzeb zmieniającego się rynku. Detaliści i ich kanały ewoluowały w zgodzie z ruchami i potrzebami rynku konsumenckiego. Jak zawsze, kanały marketingowe ewoluowały w odpowiedzi na zmieniające się potrzeby rynku. Nie można zignorować wpływu dwóch niezwykłych innowacji, które dziś uważa się za oczywiste - samochodu i systemu autostrad międzystanowych. Te transformujące innowacje jednocześnie stymulowały i zaspokajały pragnienie mobilności Amerykanów. Producenci nagle zaczęli sprzedawać swoje towary w lokalizacjach, które wcześniej były niedostępne. Miliony Amerykanów uciekło z miast na przedmieścia w latach 50. i 60. XX wieku. Detaliści szybko poszli w ich ślady. Pojawiło się kolejne zjawisko kanałowe, tym razem obejmujące grupy sklepów zlokalizowanych razem w jednym miejscu. Narodziło się podmiejskie centrum handlowe. Wkrótce potem pojawiło się jego dziecko, galeria handlowa. W 1951 roku ziemia się poruszyła. To był rok, w którym marketingowcy po raz pierwszy przyjęli koncepcję marketingu. Koncepcja marketingu stanowi, że klienci powinni być punktem centralnym wszystkich decyzji dotyczących zmiennych marketing mix. Przyjęto, że organizacje powinny produkować tylko to, co mogą sprzedać, zamiast próbować sprzedawać wszystko, co mogą zrobić. Ta nowa perspektywa miała fenomenalny wpływ na kanały dystrybucji. Dostawcy, producenci, hurtownicy i detaliści zostali zmuszeni do przyjęcia orientacji biznesowej zainicjowanej przez potrzeby i oczekiwania klienta każdego członka kanału. Koncepcja marketingowa szybko wzmocniła znaczenie pozyskiwania i stosowania informacji o klientach podczas planowania produkcji, dystrybucji i strategii sprzedaży. Wrażliwość na potrzeby klientów stała się zasadą przewodnią, dzięki której wymagania rynków wschodzących zostaną zaspokojone. Koncepcja marketingowa pozostała kamieniem węgielnym strategii kanałów marketingowych przez około trzydzieści lat. Zrodziła nawet popularną filozofię biznesową lat 90. XX wieku, znaną jako kompleksowe zarządzanie jakością. Nic więc dziwnego, że w dzisiejszej Japonii angielskie słowo klient stało się synonimem japońskiego zwrotu honored guest (honorowy gość). Skupienie się na kliencie, które jest promowane w koncepcji marketingowej, ma szeroki, intuicyjny urok. Jednak koncepcja marketingowa implicite sugeruje, że informacje powinny płynąć jednokierunkowo od klientów do pośredników i od pośredników do producentów. To niepotrzebnie restrykcyjne i reaktywne podejście do zaspokajania potrzeb klientów zostało wyparte przez koncepcję marketingu relacyjnego. Wraz z pojawieniem się nowoczesnych technologii komunikacji i zarządzania informacją członkowie kanału odkryli, że mogą teraz nawiązywać i utrzymywać interaktywne dialogi z klientami. Pomysły i informacje były teraz wymieniane - dwukierunkowo - w czasie rzeczywistym między kupującymi i sprzedającymi. Członkowie kanału dowiedzieli się, że sukces bierze się z przewidywania potrzeb klienta, zanim on je zrealizuje. Ziemia znów się poruszyła, ponieważ filozofia marketingu relacyjnego została szeroko przyjęta. Jak ważny jest dialog z klientem? Zaawansowane technologie baz danych i interaktywne umożliwiają członkom kanału szybkie identyfikowanie zmian w preferencjach klientów. To z kolei pozwala producentom na zwinne modyfikowanie projektów produktów. Marketing relacyjny pozwala producentom na masową personalizację ofert i redukcję stałych kosztów związanych z produkcją i dystrybucją. Sprzedawcy detaliczni i hurtowi podejmują bardziej świadome decyzje dotyczące merchandisingu. To kolejna lekcja dotycząca kosztów związanych z posiadaniem niechcianych produktów. Marketing relacyjny przynosi większą satysfakcję klienta z produktów i usług, które nabywa i konsumuje. I dlaczego nie? Głos klienta był słyszany, gdy oferta była produkowana i dystrybuowana. Marketing relacyjny opiera się na dwóch zasadach mających szczególne znaczenie dla strategii kanału marketingowego:
• Długoterminowe, stałe relacje między członkami kanału są opłacalne. (Przyciąganie nowych klientów kosztuje ponad dziesięć razy więcej niż utrzymanie obecnych klientów.)
• Interaktywny dialog między dostawcami i użytkownikami towarów i usług opiera się na wzajemnym zaufaniu. (Brak zaufania zagraża wszystkim relacjom. Jego obecność je chroni.)
ROLA POŚREDNIKÓW
Ta progresja od orientacji produkcyjnej do zorientowanej na relacje umożliwiła pojawienie się wielu nowych pośredników kanałowych, ponieważ stworzyli oni nowe wartości dla klientów. Pośrednicy dostarczają klientom wiele narzędzi. Zapewnienie efektywności kontaktowej, rutynizacji, asortymentu lub zaufania klientów tworzy wartość w kanałach dystrybucji. Jedną z najbardziej podstawowych wartości dostarczanych przez pośredników jest optymalizacja liczby relacji wymiany potrzebnych do realizacji transakcji. Efektywność kontaktowa opisuje aspirację dzieloną przez członków kanału, aby zmierzać w kierunku punktu, w którym ilość i jakość relacji wymiany są zoptymalizowane. Bez pośredników kanałowych każdy nabywca musiałby bezpośrednio współpracować z każdym sprzedawcą. Byłoby to niezwykle nieefektywne. Wyobraź sobie wpływ na całkowite koszty każdej wymiany. Gdy w wymianie uczestniczą tylko dwie strony, relacja jest prostą diadą. Procesy wymiany stają się znacznie bardziej skomplikowane wraz ze wzrostem liczby członków kanału. Liczba relacji wymiany, które potencjalnie mogą się rozwinąć w dowolnym kanale, równa się:
3n - 2n+1 + 1/ 2
gdzie n to liczba organizacji w kanale. Gdy n wynosi 2, możliwa jest tylko jedna relacja. Gdy n podwaja się do 4, może rozwinąć się do 25 relacji. Zwiększ n do 6, a liczba potencjalnych relacji wzrasta do 301. Liczba relacji rozwijających się w kanale szybko staje się zbyt duża, aby skutecznie nią zarządzać, gdy każdy członek kanału współpracuje ze wszystkimi innymi członkami. Pośrednicy kanału są zatem niezbędni do ułatwienia efektywności kontaktów. Jednak gdy liczba pośredników zbliża się do liczby organizacji w kanale, zaczyna obowiązywać prawo malejących przychodów. W tym momencie dodatkowi pośrednicy dodają niewiele nowej wartości w kanale. McKesson Drug Company, największy hurtownik leków w kraju, działa jako pośrednik między producentami leków a aptekami detalicznymi. Około 600 milionów transakcji byłoby niezbędnych do zaspokojenia potrzeb 50 000 aptek w kraju, gdyby apteki te musiały składać zamówienia co miesiąc u każdego z 1000 amerykańskich producentów leków farmaceutycznych. Gdy nasz przykład rozszerzymy na nieuzasadnioną możliwość codziennych zamówień z tych aptek, liczba wymaganych transakcji wzrośnie do ponad 13 miliardów. Liczba transakcji jest niemal niemożliwa do zrealizowania. Jednak wprowadzenie 250 hurtowych dystrybutorów do kanału farmaceutycznego zmniejsza liczbę rocznych transakcji do około 26 milionów. To jest efektywność kontaktowa. Koszty związane z generowaniem zamówień zakupu, obsługą faktur i utrzymywaniem zapasów są znaczne. Wyobraź sobie ilość przetwarzania zamówień, która byłaby konieczna do ukończenia milionów transakcji farmaceutycznych. McKesson oferuje sieciowy system zamawiania dla aptek, który zapewnia szybkie, niezawodne i ekonomiczne przetwarzanie zamówień. System przetwarza każde zamówienie w ciągu jednej godziny i kieruje zamówienie do najbliższego systemu dystrybucji. Sprzedawcy detaliczni są zwolnieni z wielu kosztów administracyjnych związanych z zamówieniami rutynowymi. Nieprzypadkowo system zwiększa prawdopodobieństwo, że McKesson uzyska swój biznes w wyniku oszczędności. Rutynizacja odnosi się do środków, za pomocą których procesy transakcyjne są standaryzowane w celu usprawnienia przepływu towarów i usług przez kanały marketingowe. Rutynizacja ma kilka zalet dla wszystkich uczestników kanału. Po pierwsze, w miarę jak procesy transakcyjne stają się rutynowe, oczekiwania partnerów wymiany stają się instytucjonalizowane. Potrzeba negocjacji na zasadzie transakcji po transakcji znika. Rutynizacja pozwala partnerom kanału skupić większą uwagę na ich własnych podstawowych biznesach. Rutynizacja wyraźnie pozwala uczestnikom kanału wzmocnić swoje relacje. Organizacje dążą do tego, aby wszystkie oferowane przez nich oferty rynkowe zostały ostatecznie przekształcone w towary i usługi konsumowane przez członków ich rynku docelowego. Proces, w którym następuje ta konwersja rynkowa, nazywa się sortowaniem. W kanałach marketingowych asortyment jest często opisywany jako funkcja wygładzająca. Funkcja wygładzająca odnosi się do tego, w jaki sposób surowce są przekształcane w coraz bardziej wyrafinowane formy, aż towary będą akceptowalne do użytku przez końcowych konsumentów. Następnym razem, gdy kupisz napój gazowany, zastanów się nad rolą pośredników w przekształcaniu oryginalnego syropu w wygodną do spożycia formę. Coca-Cola wysyła syrop i inne materiały do rozlewni na całym świecie. Niezależni rozlewnie karbonizują i dodają oczyszczoną wodę do syropu. Następnie produkt jest pakowany i dystrybuowany do sprzedawców detalicznych. A my go kupujemy. To jest asortyment. To właśnie robią kanały dystrybucji. Z funkcją sortowania wiążą się dwa główne zadania:
• Kategoryzacja. W pewnym momencie w każdym kanale duże ilości heterogenicznych dostaw muszą zostać przekształcone w mniejsze, jednorodne kategorie. Wracając do kanałów farmaceutycznych, liczba leków dostępnych w punktach sprzedaży detalicznej jest ogromna. Istnieje ponad 10 000 legalnych leków. Wykonując zadanie kategoryzacji, pośrednicy najpierw porządkują to ogromne portfolio produktów w zarządzalne kategorie terapeutyczne. Następnie pozycje w tych kategoriach są dalej kategoryzowane, aby zaspokoić konkretne potrzeby poszczególnych konsumentów.
• Rozbijanie partii. Producenci chcą produkować w ilościach hurtowych. Dlatego pośrednicy muszą dzielić jednorodne partie na mniejsze jednostki. Ponad 60 procent kapitału typowej apteki detalicznej jest związane z zakupem i odsprzedażą zapasów. Możliwość nabycia mniejszych partii oznacza, że w jednym momencie konieczne są mniejsze odpływy kapitału. W związku z tym dystrybutorzy farmaceutyczni nieustannie rozbijają partie, aby spełnić wymagania dotyczące wielkości partii sprzedawców detalicznych.
Rola pośredników w budowaniu zaufania klientów jest ich najbardziej pomijaną funkcją. Z wymianą w kanałach dystrybucji wiąże się kilka rodzajów ryzyka, w tym niepewność potrzeb, niepewność rynku i niepewność transakcji. Pośrednicy tworzą wartość, redukując te ryzyka. Niepewność potrzeb odnosi się do wątpliwości sprzedawców co do tego, czy faktycznie rozumieją potrzeby swoich klientów. Zazwyczaj ani sprzedawcy, ani kupujący nie rozumieją dokładnie, co jest wymagane do osiągnięcia optymalnego poziomu produktywności. Ponieważ pośrednicy działają jak pomosty łączące sprzedawców z kupującymi, są oni znacznie bliżej producentów i użytkowników niż producenci i użytkownicy siebie nawzajem. Ponieważ rozumieją potrzeby kupujących i sprzedających, pośrednicy są dobrze przygotowani do redukowania niepewności każdego z nich. Robią to, dostosowując to, co jest dostępne, do tego, co jest potrzebne. Niewiele organizacji w dowolnym kanale dystrybucji jest w stanie dokładnie określić i uszeregować swoje potrzeby. Zamiast tego większość członków kanału ma potrzeby, które postrzegają tylko mgliście, podczas gdy inne firmy i osoby mają potrzeby, których jeszcze nie są świadomi. W kanałach, w których występuje duża niepewność potrzeb, pośrednicy zazwyczaj ewoluują w specjalistów. Liczba pośredników następnie wzrasta, podczas gdy role, które odgrywają, stają się bardziej złożone i ukierunkowane. Liczba pośredników maleje wraz ze spadkiem niepewności potrzeb. Niepewność rynku zależy od liczby źródeł dostępnych dla produktu lub usługi. Niepewność rynku jest trudna do zarządzania, ponieważ często wynika z niekontrolowanych czynników środowiskowych. Jednym ze sposobów, w jaki organizacje mogą zmniejszyć niepewność rynku, jest poszerzenie ich spojrzenia na to, co kanały marketingowe mogą i być może powinny dla nich zrobić. Kanały muszą być częścią strategicznych ram decyzyjnych. Niepewność transakcji odnosi się do niedoskonałych przepływów kanałów między kupującymi i sprzedającymi. Rozważając przepływy produktów, zazwyczaj myśli się o funkcji dostawy lub dystrybucji. Pośrednicy odgrywają kluczową rolę w zapewnianiu płynnego przepływu towarów przez kanał. Dostawa materiałów często musi być zaplanowana tak, aby dokładnie pokrywała się z wykorzystaniem tych towarów w procesach produkcyjnych innych produktów lub usług. Problemy pojawiające się w dowolnym momencie podczas tych przepływów kanałów mogą prowadzić do większej niepewności transakcji. Takie trudności mogą wynikać ze źródeł prawnych, kulturowych lub technologicznych. Gdy niepewność transakcji jest wysoka, kupujący próbują zabezpieczyć wielu dostawców, chociaż ta opcja nie zawsze jest dostępna. Niepewność w kanałach marketingowych często można zminimalizować tylko poprzez ostrożne działania podejmowane przez dłuższy okres wymiany. Częstotliwość, czas i ilość dostaw są typowe dla procesów związanych z dopasowywaniem funkcji kanału do potrzeby efektywnego zarządzania zasobami w kanałach marketingowych. Członkowie kanału często nie są świadomi swoich dokładnych potrzeb w zakresie dostaw i obsługi. Poprzez minimalizowanie niepewności transakcji pośrednicy kanału pomagają wyjaśnić te procesy. Naturalnie, w miarę standaryzacji procesów wymiany, niepewność potrzeb, rynku i transakcji jest zmniejszana. W miarę rozwoju relacji wymiany niepewność maleje, ponieważ partnerzy wymiany lepiej się znają.
GDZIE MISJE SPOTYKAJĄ SIĘ Z RYNKIEM
Funkcje wykonywane przez pośredników marketingowych jednocześnie zaspokajają potrzeby wszystkich członków kanału na kilka sposobów. Najbardziej podstawowy sposób, w jaki można ocenić potrzeby rynku, a następnie je zaspokoić, koncentruje się na roli, jaką pośrednicy kanałowi mogą odegrać w pomaganiu członkom kanału w osiąganiu celów wyznaczonych w ich planach strategicznych. Ponieważ łączą producentów z ich ostatecznymi klientami, pośrednicy kanałowi odgrywają kluczową rolę w dostosowywaniu misji wszystkich organizacji do rynku (rynków), którym służą. Pośrednicy kanałowi wspierają działania związane z budowaniem relacji i są niezbędnymi zwolennikami koncepcji marketingu relacyjnego w kanale marketingowym. Kanały dystrybucji nie są wszystkim, co dotyczy marketingu, ale bez nich wszystkie zachowania i działania znane jako marketing stają się niemożliwe. Kanały dystrybucji stanowią ostateczną granicę, w której można osiągnąć najbardziej zrównoważone strategiczne korzyści marketingowe. Kanały dystrybucji to instrumenty, za pomocą których misje organizacyjne spotykają się - stają twarzą w twarz - z rynkiem. Strategiczny sukces lub porażka nastąpią tam.
Klasyczne marki są częścią współczesnego społeczeństwa, które tak głęboko wrosły w nasze codzienne doświadczenia, że stały się niezauważalne. Klasyczną markę można zdefiniować jako taką, która dzięki starannej i dokładnej reklamie, marketingowi i pozycjonowaniu produktu stała się synonimem kategorii produktów, której jest częścią. Ponadto klasyczną marką może być również taka, dla której nie ma innej rozpoznawalnej konkurencji w jej klasie produktów. W tym sensie klasyczna marka to taka, która została podniesiona ponad poziom towaru, tworząc własną klasyfikację produktów w umyśle konsumenta. Nie oznacza to, że jest to jedyny przedmiot swojego typu, ale raczej, że inne konkurencyjne produkty mają tak mały udział w rynku, że są uważane za niejasne, co sprawia, że klasyczna marka jest "zabójcą kategorii" w jej segmencie rynku.
PRZYKŁADY KLASYCZNYCH MAREK
Na podstawie powyższej definicji tego, co stanowi klasyczną markę, istnieje wiele produktów i usług, które można uznać za klasyczne. Coca-Cola (lub Coke, jak się ją powszechnie nazywa) jest niekwestionowanym liderem w branży napojów bezalkoholowych, do tego stopnia, że konsument w restauracji, który chce napić się coli, jest zaprogramowany, aby poprosić o Coca-Colę, niezależnie od tego, czy lokal serwuje Coca-Colę, Pepsi czy jakąkolwiek inną markę. W tym samym sensie plaster samoprzylepny jest lepiej znany jako Band-Aid, chusteczki higieniczne są określane jako Kleenex, a Xerox stał się czasownikiem oznaczającym czynność kserowania, a także rzeczownikiem używanym do określenia tego, co produkuje kserokopiarka. Produkty gospodarstwa domowego, takie jak Arm & Hammer Baking Soda, Clorox Bleach i lalki Barbie, stanowią mocne przykłady klasycznych marek, które nie mają znaczącej konkurencji na rynku. Oczywiście na rynku są inne sody oczyszczone, wybielacze i lalki, ale nawet doświadczony konsument miałby trudności z ich wymienieniem. Dotyczy to nie tylko produktów namacalnych, ale także usług. Dostawcy usług, tacy jak H & R Block i AAA (The American Automobile Association) to klasyczne marki, których nazwy są synonimem rynków, które reprezentują.
WIZUALNY WPŁYW KLASYCZNYCH MAREK
W dużej mierze początkowe rozpoznanie klasycznej marki wynika nie z jej wyników, ale z jej wizualnego wpływu na pamięć konsumenta. Oczywiście, produkt musi działać znakomicie, aby utrzymać swój status; jednak pierwsze wrażenie jest często wynikiem zapadającego w pamięć logo. Klasyczne marki zazwyczaj mają loga lub znaki firmowe, które niewiele się zmieniły od momentu powstania ich produktu. Kształt butelki Coca-Coli, Złote Łuki McDonalda, żółto-czerwone pudełko Arm i Hammer - to wszystko są identyfikatory marki, które nie wymagają żadnych słów pisanych, aby wyjaśnić, co reprezentują. Konsumenci natychmiast rozpoznają te symbole i kojarzą je z markami, które przedstawiają. W XXI wieku, gdy reklama internetowa staje się coraz bardziej powszechna, takie proste obrazy, jak te, są niedrogim sposobem na dalsze utrwalanie sukcesu marki.
HISTORIA KLASYCZNEJ MARKI
Przejście marki od zwykłej do klasycznej nie jest łatwym zadaniem i nie dzieje się z dnia na dzień. Wymaga to silnego zaangażowania na wielu poziomach organizacji, wraz z dobrze wykonanym planem pozostania wiodącym graczem. Dobrym przykładem klasycznej marki w historii jest Coca-Cola, prawdopodobnie jeden z najbardziej znanych klasyków na świecie. Coca-Cola została stworzona przez dr Johna Smytha Pembertona, farmaceutę z Atlanty, w 1886 roku jako napój serwowany w jego barze z napojami gazowanymi. Opisywał ją swoim klientom jako "pyszną i orzeźwiającą", co jest nadal używane w reklamach Coca-Coli w XXI wieku. W 1892 roku dr Pemberton połączył siły z Asą G. Candlerem, biznesmenem z Atlanty, który rozumiał siłę reklamy, i rok później zarejestrował znak towarowy Coca-Cola. Aby stworzyć rozpoznawalność marki, Candler stworzył szeroką gamę pamiątek promocyjnych do fontann z napojami gazowanymi - zegary, wachlarze i inne nowinki, wszystkie przedstawiające znak towarowy Coca-Cola. W 1915 roku Candler wprowadził butelkę konturową, która sama uzyskała ochronę znaku towarowego w 1977 roku - czego zwykle nie robiono w przypadku opakowań produktów. Pojawienie się butelki konturowej, wraz z zakładami rozlewniczymi, pozwoliło konsumentom cieszyć się Coca-Colą we własnych domach. II wojna światowa miała duży wpływ na budowanie marki, ponieważ sześćdziesiąt cztery z tych zakładów rozlewniczych dostarczyły siłom zbrojnym ponad pięć milionów butelek Coca-Coli. W tym czasie Coca-Cola zaczęła być kojarzona z amerykańskim duchem postawy "can-do" i stała się globalnym symbolem koleżeństwa i orzeźwienia. Po wojnie Coca-Cola wykorzystała technologię radia i telewizji, aby nadal rozpowszechniać wizerunek swojej marki. Jej długotrwałe slogany i kampanie reklamowe, takie jak "To jest prawdziwa rzecz", przeniknęły amerykańskie życie do tego stopnia, że nie są już tylko reklamą; stały się raczej ikonami kultury. Zaangażowanie Coca-Coli w wysokiej jakości reklamę trwa do dziś dzięki korzystaniu nie z jednej, ale z pięciu znanych agencji kreatywnych, których głównym celem jest utrzymanie klasycznego statusu Coca-Coli. Ta bogata historia nie jest jednak doskonała. Na początku lat 80. Coca-Cola majstrowała przy perfekcji i wprowadziła na rynek NewCoke, zreformułowaną wersję swojego produktu o nowym smaku i nowym projekcie opakowania. W ciągu kilku tygodni konsumenci byli niezadowoleni ze zmiany, a Coke szybko zareagowała, aby naprawić wyrządzone szkody. Szybko wyprodukowała "Classic Coke", która była oryginalną formułą, którą konsumenci poznali i pokochali. Okazało się to bardzo kosztowne dla Coca-Coli nie tylko ze strony produkcji i rozlewu, ale także ze strony marketingu, gdzie trzeba było szybko wdrożyć plan marketingowy korygujący. Oczywiście Coca-Cola odbiła się od dna i odniosła spektakularny sukces, pozostając nadal liderem rynku.
SIŁY STOJĄCE ZA KLASYCZNYMI MARKAMI
Historie sukcesu niezliczonych innych klasycznych marek czytają się podobnie jak Coca-Cola. Wszystkie te klasyczne marki mają jeden wspólny wątek w całej swojej historii - udane wykorzystanie czterech P marketingu, którymi są produkt, umiejscowienie, cena i promocja. To równowaga tych czterech istotnych czynników sprawia, że marka przechodzi od nazwy do klasyki. Przede wszystkim jest to produkt. Marki muszą prześcignąć konkurencję, aby stać się klasyką. Najlepsze umiejscowienie, cena i promocja nie podniosą przeciętnego produktu do statusu klasyka, niezależnie od tego, ile dolarów marketingowych zostanie w niego wpompowanych. Zanim produkt stanie się klasyczną marką, musi lepiej smakować, być szybszy, pracować ciężej lub trwać dłużej niż inne produkty, z którymi konkuruje. Po drugie, produkt musi być odpowiednio umieszczony na rynku, aby przyćmić konkurencję. Jego rynek docelowy musi być starannie ustalony i, w przypadku większości klasycznych marek, być dość szeroki. Większość klasycznych marek przemawia do szerokiego zakresu demograficznego, a nie do małej części konsumentów. Ludzie z różnych środowisk używają większości marek, które stały się klasykami. Plastry, Coca-Cola, Levi′s i Timex można znaleźć w niemal każdym domu w Ameryce, niezależnie od dochodu, regionu geograficznego, wykształcenia czy wieku. Następnie należy zająć się cenami. Patrząc na koszt klasycznych marek w porównaniu z konkurencją, klasyczne marki zazwyczaj mieszczą się w średnim przedziale cenowym kategorii produktów. Choć są droższe od marek sklepowych i "generycznych", zwykle nie są też drogie. Po części wynika to z faktu, że aby produkt został dobrze przyjęty przez masy, nie może być ani przewartościowany, ani niedowartościowany. Na rynku dostępnych jest wiele wysokiej jakości zegarków naręcznych, ale Timex, jeden z najtańszych, zyskał sobie miano klasycznej marki. Na koniec, produkt musi być odpowiednio i właściwie promowany, aby stać się klasyczną marką. Na przykład Timex przez lata tworzył zapadające w pamięć reklamy telewizyjne, wykorzystując tę samą przesłankę - "Timex przyjmuje cięgi i wciąż tyka". Ludzie przyzwyczaili się do tego, co zegarek naręczny może wytrzymać i pozostać funkcjonalny. Taki pomysł promocyjny wynika z kreatywnego działu zaangażowanego w sukces marki poprzez konsekwentne procesy promocyjne. Promocja również musi być stała. Zawsze musi być jakiś rodzaj środka promocyjnego w ruchu, aby utrzymać nazwę marki w centrum uwagi konsumenta. Wyświetlacze w punktach sprzedaży, reklama radiowa, telewizyjna, drukowana i internetowa, sponsorowanie korporacyjne i konkursy są wykorzystywane, często jednocześnie, aby utrzymać świadomość marki wśród opinii publicznej. Te cztery tradycyjne wytyczne marketingu produktu są niezwykle ważne dla klasycznych marek, ponieważ konkurencja jest zazwyczaj skierowana bezpośrednio do nich. Na przykład Pepsi wydaje miliony dolarów rocznie, celując bezpośrednio w Coke. Coca-Cola nie może sobie pozwolić na spoczywanie na statusie swojej klasycznej marki - musi nieustannie dbać o utrzymanie idealnej równowagi między produktem, umiejscowieniem, ceną i promocją, w przeciwnym razie ryzykuje, że jej udział w rynku zostanie przejęty przez głodną konkurencję. Klasyczne marki raczej nie zmienią się w ciągu kilku następnych pokoleń. Nie znikną z dnia na dzień ani nie zostaną zmiecione przez rosnącą technologię. Firmy, które mają szczęście mieć w swojej ofercie klasyczne marki, czujnie chronią swoje szanowane miejsce poprzez ostrożny marketing, innowacyjne pomysły i szacunek dla swojego miejsca w historii.
W podstawowym procesie komunikacji nadawca umieszcza wiadomość w słowach i przekazuje ją odbiorcy, który interpretuje wiadomość. Medium, które nadawca wybiera do przekazania wiadomości, nazywa się kanałem komunikacyjnym. Tradycyjnie uważano, że wybrane słowa i sposób ich interpretacji są wyłącznie odpowiedzialne za powodzenie wiadomości. Jednak począwszy od lat 60. XX wieku, za sprawą Marshalla McLuhana, wielu zaczęło wierzyć, że medium jest wiadomością. Dzisiaj, dzięki teorii bogactwa mediów , większość ludzi zdaje sobie sprawę, że odpowiedni wybór kanału komunikacji (medium) znacząco przyczynia się, wraz ze słowami, do sukcesu wiadomości. Odpowiedni wybór pomaga nadawcom komunikować się jasno, oszczędzając im i ich firmom czas i pieniądze. Dlatego też ważne jest zbadanie różnych kanałów komunikacji w celu zrozumienia ich właściwego wykorzystania. Teoria bogactwa mediów klasyfikuje kanały komunikacji wzdłuż kontinuum bogactwa, definiując wysoce bogate kanały jako te, które obsługują wiele wrodzonych wskazówek jednocześnie, takich jak korzystanie ze sprzężenia zwrotnego, wskazówek niewerbalnych i kilku zmysłów. Spotkanie twarzą w twarz, które wykorzystuje informacje zwrotne, a także zmysły słuchowe i wzrokowe, jest uważane za niezwykle bogate. Jednak newsletter lub broszura są szczupłe, angażując tylko zmysł wzrokowy i powolne lub żadne informacje zwrotne. Kilka z tych kanałów - broszury, listy, wiadomości e-mail, wiadomości wideo e-mail, rozmowy telefoniczne, wideokonferencje i spotkania twarzą w twarz - zostanie przejrzanych wraz z kilkoma przewodnikami dotyczącymi właściwego użycia.
BROSZURY
Autorzy zazwyczaj tworzą broszury, aby dostarczać informacji o produkcie lub usłudze. Chociaż często są używane w celach perswazyjnych, są zwykle prezentowane jako rutynowe dokumenty informacyjne. Autorzy ostrożnie rozkładają informacje, często projektując układ wizualny tak starannie, jak komponują tekst treści. Ten szczupły kanał działa skutecznie, gdy potrzebna jest jednostronna komunikacja w medium wizualnym. Wybierając ten kanał, nadawca eliminuje wszelkie zbędne informacje, które mogłoby zawierać bogatsze źródło, aby zachować przejrzystość i skupienie treści wiadomości.
LISTY
Listy to przede wszystkim drukowane, formalne dokumenty biznesowe. Najlepiej sprawdzają się obecnie, gdy chcemy przekazać ważne, nietypowe informacje, takie jak oferty pracy lub odmowy, awanse, nagrody i wyróżnienia oraz inne rodzaje specjalnych ogłoszeń. Są również odpowiednim kanałem do pewnych prób perswazji, takich jak
nakłanianie do wpłat na rzecz specjalnej sprawy, proszenie kogoś o przemówienie przed grupą lub proponowanie przyjęcia pomysłu. Obecnie drukowane listy są nadal używane jako narzędzia reklamowe; jednak najskuteczniejsze są te, które są indywidualnie dostosowywane, co czyni je specjalnymi wiadomościami.
WIADOMOŚCI E-MAILOWE
Wiadomości e-mailowe są szeroko stosowane w biznesie, jak i w życiu osobistym. Chociaż e-mail jest szybkim i wydajnym kanałem, jest uważany za oszczędny, ponieważ nie pozwala na kontakt wzrokowy i niewiele niewerbalnych wskazówek. Dlatego wiadomości e-mailowe są używane głównie w rutynowych kontekstach. Notatki, które autorzy wysyłają do rodziny i przyjaciół, to zazwyczaj relacje z codziennych czynności, przy czym ważniejsze, specjalne wiadomości są przekazywane za pośrednictwem bogatszych kanałów. Użytkownicy biznesowi również wybierają pocztę e-mail do prowadzenia rutynowych spraw biznesowych, pozostawiając specjalne lub niestandardowe wiadomości dla innych kanałów.
WIADOMOŚCI WIDEO E-MAIL
Stosunkowo nową odmianą poczty e-mail jest poczta wideo. Chociaż jest znacznie bogatsza od poczty tekstowej, poczta wideo jest nadal kanałem komunikacji jednokierunkowej. Brak interaktywności sprawia, że nadaje się do wiadomości, które wymagają bogactwa, ale nie informacji zwrotnej w czasie rzeczywistym. Nawet przy dzisiejszych ulepszonych technologiach kompresji wiadomości wideo mogą być bardzo dużymi plikami. Na przykład trzydziestosekundowa wiadomość wideo może zazwyczaj wymagać około jednego megabajta - górnego limitu wielu systemów poczty e-mail. Osobiste wykorzystanie tego kanału może być odpowiednie w takich sytuacjach, jak pokazanie nowej fryzury, przedstawienie nowych znajomych, a nawet pokazanie nowego dziecka. Z drugiej strony, wykorzystanie poczty wideo w biznesie wciąż ewoluuje. Oczywiste jest, że gdy trzeba coś pokazać - powiedzmy nowy projekt opakowania - byłby to dobry wybór. Krótki komunikat sprzedażowy może być odpowiedni w niektórych kontekstach. W chwili obecnej najlepszym sposobem wykorzystania tego kanału jest wysyłanie wiadomości specjalnych.
ROZMOWY TELEFONICZNE
Telefon jest nieco bogatszym kanałem. Przesyła dźwięk, a nie drukowane słowa, a dźwięk może wzbogacić słowa wiadomości o nacisk i emocje. Umożliwia również natychmiastową informację zwrotną, co czyni go bogatszym kanałem, którego można użyć do uzyskania ważnych, natychmiastowych odpowiedzi. Wybór tego kanału do przesyłania wiadomości jest wysoce kontekstowy. Niektórzy odbiorcy postrzegają telefon jako inwazyjny, polegając na systemach poczty głosowej, aby otrzymywać wiadomości. Inni postrzegają telefon jako ważny sposób prowadzenia działalności. Ci odbiorcy często noszą telefony komórkowe lub pagery, aby mogli otrzymywać ważne wiadomości, gdziekolwiek się znajdują. Znajomość znaczenia wiadomości, a także preferowanego sposobu prowadzenia działalności przez odbiorcę, ma kluczowe znaczenie dla wyboru - lub nie-wyboru - tego kanału.
WIDEOKONFERENCJE
Wideokonferencje jako kanał komunikacji są niezwykle bogate. Ich technologia pozwala ludziom w różnych miejscach widzieć się i rozmawiać ze sobą interaktywnie. Ich użytkownicy wybierają je ze względu na wygodę,a także opłacalność. Jest dostępny w większości dużych firm, a także w centrach biznesowych do użytku przez mniejsze firmy i osoby prywatne. Na przykład firma może chcieć zaprosić wiceprezesa ds. sprzedaży na spotkanie planistyczne dotyczące wprowadzenia nowego produktu bez proszenia tej osoby o przybycie do siedziby firmy na trzydziestominutowe spotkanie. Albo firma może chcieć przejrzeć kandydatów do pracy, a następnie zaprosić tylko najlepszych kandydatów na rozmowy kwalifikacyjne na miejscu. Z reguły ten kanał najlepiej sprawdza się, gdy potrzeby komunikacyjne są szczególne, natychmiastowe lub w inny sposób kosztowne.
SPOTKANIA OSOBISTE
Spotkania osobiste są klasyfikowane na szczycie skali bogactwa, ponieważ pozwalają na pełne wykorzystanie wszystkich zmysłów i ciągłe sprzężenie zwrotne. Firmy uważają takie spotkania za dobry wybór w przypadku nierutynowych działań biznesowych, takich jak planowanie nowych produktów, analiza rynków i strategii biznesowych, negocjowanie kwestii i rozwiązywanie problemów. Ponadto spotkania osobiste zespołów często zapewniają efekt synergii, który poprawia wynik ich działań. Wysiłki współpracy, jakie wywołują spotkania twarzą w twarz, są często warte czasu i wydatków związanych z korzystaniem z tego kanału.
PODSUMOWANIE
Chociaż te kanały nie są jedynymi dostępnymi, wyraźnie pokazują, że nadawca wiadomości ma zakres możliwości wyboru od szczupłego do bogatego. Aby pomóc zapewnić skuteczną komunikację, nadawca musi wybrać kanał odpowiedni do kontekstu. Ponadto, wybierając odpowiedni kanał, należy wziąć pod uwagę nie tylko bogactwo, ale także inne czynniki, takie jak szkolenie i dostępność. Na przykład, chociaż faks jest stosunkowo łatwy do wysłania, niektórzy ludzie mogą nie mieć łatwego dostępu do jego odbioru, podczas gdy inni mogą go łatwo przekierować na pager lub telefon bezprzewodowy, gdziekolwiek się znajdują. Właściwy wybór kanału komunikacji prowadzi do wzrostu produktywności i pozytywnych efektów społecznych. Zrozumienie, w jaki sposób właściwy wybór wpływa na sukces wiadomości, pomaga nadawcom zdecydować, z którego kanału komunikacji skorzystać.
Komunikacja, mówiąc najprościej, to przekazywanie wiadomości przez kanał od jednej osoby do drugiej; to znaczy łączenie lub dzielenie się myślami, opiniami i inteligencją. Komunikacja to mechanizm dla wszystkich typów interakcji i łączności. Może natychmiastowo łączyć ludzi. Może łączyć idee i rzeczy. Może przekazywać wiadomości i fakty. Może przekazywać wiedzę. Ponieważ komunikacja może być wyrażona jako słowa, litery, obrazy, gesty, sygnały, kolory itd., przypisuje się jej bycie jedynym elementem, który zbliżył do siebie wszystkie zakątki świata. W biznesie komunikacja jest krytycznym kręgosłupem zdolności organizacji do działania wewnętrznie i zewnętrznie, a także na szczeblu krajowym i międzynarodowym.
PODSTAWY KOMUNIKACJI
Komunikacja, w swojej najprostszej definicji, obejmuje nadawcę (koder) i odbiorcę (dekoder). Nadawca koduje wiadomość, decydując, jakiej treści i kodów relacji użyć, i wysyła ją za pośrednictwem kanału komunikacji (twarzą w twarz, e-mailem, telefonem itp.). Odbiorca (dekoder) odbiera wiadomość i w procesie dekodowania próbuje zrozumieć jej treść i znaczenie relacji. Po zdekodowaniu odbiorca może odpowiedzieć nadawcy za pośrednictwem kanału komunikacji nową wiadomością w oparciu o postrzeganie przez odbiorcę tego, co wiadomość przekazała pod względem informacji i relacji z nadawcą. Aby była najbardziej skuteczna, pętla sprzężenia zwrotnego (zdekodowana interpretacja oryginalnej wiadomości przez odbiorcę) powinna działać dalej; to znaczy, że odbiorca powinien odpowiedzieć nadawcy. Dostarcza to nadawcy dwóch istotnych informacji: (1) czy oryginalna wiadomość została prawidłowo zrozumiana jako wysłana i (2) nowej wiadomości. Pozwala to na wczesną korektę nieprawidłowo zdekodowanych wiadomości. Dekodowanie, kodowanie i pętla sprzężenia zwrotnego trwają, gdy strony się komunikują. Podczas dekodowania wiadomości może dojść do błędnej komunikacji i/lub pominiętej komunikacji. W pętli sprzężenia zwrotnego kluczowe jest zarówno to, aby nadawca dostarczył zamierzoną wiadomość, jak i to, aby odbiorca wyjaśnił, jak ta wiadomość została odebrana. Im większa liczba osób zaangażowanych w proces wymiany wiadomości i im większe są ich różnice w wartościach, przekonaniach, postawach i wiedzy na dany temat, tym większe jest prawdopodobieństwo, że wiadomość zostanie nieprawidłowo zdekodowana i nastąpi załamanie komunikacji. Komunikacja jest najbardziej skuteczna, gdy jest rozumiana przez wszystkie osoby zaangażowane w proces. Oznacza to, że dobra komunikacja jest wolna od kolokwializmów społecznych, obyczajów międzykulturowych i stylów opartych na płci. Ponieważ komunikacja może być przekazywana w wielu formach, często jest opisywana w dwóch ogólnych kategoriach: werbalnej i niewerbalnej. Komunikacja niewerbalna obejmuje mowę ciała, gesty i sygnały. Ogólnie rzecz biorąc, skuteczność komunikacji zależy od tego, jak dobrze nadawca przekazuje wiadomość odbiorcy, korzystając z sześciu zmysłów (wzroku, słuchu, mowy, węchu, dotyku i smaku) oraz informacji zwrotnej.
ZASADY KOMUNIKACJI
Istnieje kilka zasad skutecznej komunikacji. Poniższa lista kontrolna stanowi przewodnik po tworzeniu skutecznej komunikacji:
• Twórz jasne, poprawne, wyczerpujące i zwięzłe komunikaty.
• Dołącz do komunikatów krok działania z terminami, które wymagają odpowiedzi.
• Wybierz właściwe kanały komunikacji na podstawie treści komunikatu i komponentów relacji.
• Ustrukturyzuj komunikat tak, aby nie przeciążać odbiorcy informacjami.
• Rozwijaj wrażliwość na styl komunikacji odbiorcy i odpowiednio twórz komunikat.
• Bądź świadomy tego, jak wzorce kulturowe wpływają na styl komunikacji i bierz to pod uwagę podczas wysyłania i odbierania komunikatów.
• Pamiętaj, że osoby posługujące się drugim językiem mogą nadal kodować/dekodować komunikaty na podstawie wzorców komunikacji swojej pierwszej kultury.
• Rozwijaj umiejętności słuchania jako aspekt skutecznego wykorzystania pętli sprzężenia zwrotnego.
• Uznaj, że wszystkie komunikaty należy odbierać z pozytywnym nastawieniem.
TRYBY TRANSMISJI KOMUNIKACJI
Komunikacja za pośrednictwem technologii stała się normą we współczesnym światowym środowisku biznesowym. Wiadomości są regularnie przekazywane za pośrednictwem poczty elektronicznej, faksu i telefonów. Ludzie nadal spotykają się twarzą w twarz, ale korzystają również z usług poczty ekspresowej i kurierskiej, systemów wiadomości i pagerów, identyfikacji dzwoniącego i systemów przekazywania/przekierowywania telefonii (telefon, telex itp.) oraz wielu innych kombinacji metod przesyłania i dostarczania wiadomości. Sygnalizacja, biometria, skanowanie, obrazowanie i holografia również mają swoje miejsce w komunikacji biznesowej. Ponadto wielu profesjonalistów pracuje w grupach wirtualnych, korzystając z łączy satelitarnych, wideokonferencji i oprogramowania do pracy grupowej na komputerze. Korzystając z tych technologii, ważne jest, aby rozpoznać ograniczenia wybranego kanału komunikacji. Na przykład poczta elektroniczna jest wydajna, ale nie przekazuje niuansów wiadomości, które można uzyskać z mimiki twarzy lub gestów. Korzystanie z wielu kanałów komunikacji może mieć kluczowe znaczenie, jeśli treść jest dość złożona; w związku z tym wiadomość werbalna może nie być wystarczająca. Znaczenie korzystania z pętli sprzężenia zwrotnego staje się coraz bardziej krytyczne w miarę rozszerzania się treści i/lub aspektów relacyjnych wiadomości. Ponadto, ponieważ coraz więcej grup roboczych działa globalnie w wirtualnym medium, wzorce kulturowe muszą być brane pod uwagę w dążeniu do jasnej i skutecznej komunikacji. Rozwój globalnego biznesu w połączeniu z postępem technologicznym stworzył więcej możliwości międzykulturowych. Pracując w środowisku międzykulturowym, wielonarodowym/wielokulturowym, konieczne jest zrozumienie, że kultura wpływa na zachowanie ludzi, a także ich postawy i przekonania. Kodujemy/dekodujemy wiadomości za pomocą spostrzeżeń wyniesionych z naszych filtrów kulturowych. W sytuacjach międzykulturowych profesjonalista uważa, aby używać pętli sprzężenia zwrotnego w celu wyjaśnienia zrozumienia otrzymanej wiadomości. To, że wiadomość została odebrana szybko lub przy użyciu zaawansowanej technologii, nie oznacza, że odbiorca zdekodował ją prawidłowo.
TYPY KOMUNIKACJI
Komunikacja pisemna zwykle przyjmuje formę listów, notatek, raportów, rękopisów, korespondencji osobistej, notatek, formularzy, aplikacji, życiorysów, dokumentów prawnych i medycznych itd. Komunikacja mówiona obejmuje między innymi prezentacje, wymianę werbalną (np. jeden na jeden, do grupy) i komunikaty głosowe. Mówienie wyraźnie, z odpowiednią szybkością, a także zwracanie uwagi na intonację głosu, ton, rezonans, klarowność wysokości dźwięku i głośność są ważne dla sposobu odbioru komunikatu mówionego. Często sposób przekazywania komunikatu mówionego jest tak samo lub ważniejszy niż treść komunikatu (dobrym przykładem jest żart, który ma idealny moment). Ponad 90 procent tego, co przekazuje komunikat, może w rzeczywistości opierać się na pozytywnym nastawieniu i elementach niewerbalnych. Komunikacja niewerbalna obejmuje mowę ciała (np. mimikę twarzy, kontakt wzrokowy, postawę ciała lub pozycję siedzącą, odległość między nadawcą a odbiorcą, gestykulację), która może wysyłać sygnały do odbiorcy, które są znacznie silniejsze niż sama wiadomość. Jeśli obraz naprawdę mówi głośniej niż tysiąc słów, komunikacja za pomocą innych środków niż słowo mówione i pisane - takich jak noszone kolory, sygnały lub maniery odzwierciedlające osobowość lub preferencje, gestykulacja - może mieć duże znaczenie dla przekazywanego komunikatu.
KANAŁY KOMUNIKACJI
Komunikacja w społeczeństwie, czy to osobista, czy biznesowa, jest krytyczna. Osoby lub organizacje polegają na niej, aby funkcjonować. Większość firm potrzebuje zarówno komunikacji wewnętrznej, jak i zewnętrznej, aby być produktywnymi. Komunikacja wewnętrzna to komunikacja, która jest wymieniana w ramach organizacji. Zwykle jest mniej formalna niż komunikacja skierowana do osób spoza firmy. Nieformalna komunikacja może obejmować pogawędki na korytarzu i w stołówce, spotkania zespołowe i grupowe, swobodne rozmowy przez telefon lub e-mail, notatki i wstępne raporty, telekonferencje, sesje burzy mózgów, spotkania działów lub wydziałów oraz projekty dokumentów. Nieformalna komunikacja obejmuje również pocztę pantoflową, plotki i młyn plotek; te kanały komunikacji polegają na przekazywaniu wiadomości współpracownikom, znajomym i innym osobom. Jeśli są dokładne, mogą być bardzo skuteczne. Komunikacja zewnętrzna zwykle odnosi się do wiadomości wykraczających poza organizację biznesową. Ponieważ odzwierciedla wizerunek organizacji, komunikacja zewnętrzna jest zwykle bardziej formalna. Komunikacja zewnętrzna jest rozszerzeniem organizacji i może być ważnym kanałem marketingu wizerunku, misji, produktów i/lub usług firmy.
PARAMETRY KOMUNIKACJI
Wybór lub rodzaj komunikacji biznesowej bierze pod uwagę wiele czynników, w tym (1) charakter firmy (np. rząd, handel, przemysł, organizacja prywatna lub publiczna, firma produkcyjna lub marketingowa); (2) misję i filozofię organizacji (otwarte wersety ograniczone lub zamknięte wzorce komunikacji); (3) sposób organizacji firmy (np. mała lub duża firma, oddziały, spółki zależne); (4) style przywództwa menedżerów i przełożonych organizacji (demokratyczny, autorytarny, dyktatorski, pragmatyczny itp.); (5) liczbę i rodzaje personelu, a także poziomy pracowników (hierarchia lub status stanowisk, kierownictwo lub pracownicy, przełożeni lub liderzy zespołów itp.); (6) bliskość jednostek roboczych (bliskość działów, wydziałów lub grup, które są zależne od informacji od siebie); i (7) potrzeba komunikacji (kto musi wiedzieć, co, kiedy, dlaczego i jak, aby można było podejmować świadome decyzje).
SYSTEM KOMUNIKACJI
Każda grupa (od organizacji po rodzinę) ma system komunikacji lub sieć. Niektóre są bardzo skuteczne i wydajne, podczas gdy inne są wręcz przeciwne. Nawet jeśli komunikacja wydaje się nie istnieć (lub nie istnieje) w organizacji lub grupie, grupa ma system komunikacji. Oznacza to, że słaba lub nieistniejąca komunikacja nadal przekazuje wiadomość: nie ma żadnej komunikacji lub brakuje wymiany informacji lub wiadomości w grupie.
STYLE KOMUNIKACJI
Większość ludzi, nie zdając sobie z tego sprawy, komunikuje się z innymi (zarówno werbalnie, jak i niewerbalnie) zgodnie z dominującym stylem. Zasadniczo ludzie komunikują się w jednym z czterech podstawowych stylów: (1) bezpośrednio lub autorytatywnie (osoba odpowiedzialna lub osoba, która jest siłą napędową do wykonania zadań); (2) analitycznie lub jako poszukiwacz faktów (osoba, która planuje, bada i analizuje fakty oraz ostrożnie rozważa alternatywy); (3) uprzejmie lub jako trener (wspierający budowniczy zespołu, który sprawia, że ludzie współpracują w celu osiągnięcia wspólnego celu); i (4) ekspresyjnie lub ekstrawagancko (kibic z pozytywnym nastawieniem, który ma wiele pomysłów i motywuje innych do podejmowania działań). Style komunikacji rozwijają się z czasem i w wyniku praktyki. Mogą również odzwierciedlać normy kulturowe. Ważne jest, aby zrozumieć własny styl komunikacji, a także styl komunikacji innych, aby zmaksymalizować interakcje komunikacyjne.
BARIERY KOMUNIKACJI
Skuteczna komunikacja polega częściowo na wyeliminowaniu jak największej liczby barier komunikacyjnych. Oto niektóre ze sposobów unikania typowych barier komunikacyjnych:
• Skup się na temacie.
• Jeśli ważny jest czas, dotrzymuj terminu.
• Bądź gotowy do stosowania strategii komunikacyjnej odpowiedniej do sytuacji; słuchaj, negocjuj, idź na kompromis, modyfikuj i ucz się na podstawie informacji zwrotnych.
• Unikaj polegania na plotkach jako źródle faktów, nawet jeśli w przeszłości mogły być dokładnym kanałem komunikacji.
• Bądź szczery, empatyczny i wrażliwy na uczucia innych; głos, czyny i inne niewerbalne wskazówki mówią głośno.
• Szukaj informacji o nieznanych, zwłaszcza gdy w grę wchodzą różnice kulturowe i płciowe.
• Bądź taktowny, uprzejmy, jasny, przygotowany i, przede wszystkim, pozwól, aby pozytywne nastawienie kierowało całą komunikacją.
Konkurencja to walka między firmami o akceptację i lojalność konsumentów. System wolnej przedsiębiorczości zapewnia, że firmy podejmują decyzje o tym, co produkować, jak to produkować i jaką cenę pobierać za produkt lub usługę. Konkurencja jest podstawowym założeniem systemu wolnej przedsiębiorczości, ponieważ uważa się, że posiadanie więcej niż jednej firmy konkurującej o tych samych konsumentów spowoduje, że produkty i/lub usługi będą dostarczane w lepszej jakości i niższym koszcie niż w przypadku braku konkurentów. Innymi słowy, konkurencja powinna zapewnić konsumentom najlepszą wartość za ciężko zarobione pieniądze.
ASPEKTY KONKURENCJI
Aby odnieść sukces w dzisiejszym, bardzo konkurencyjnym świecie biznesu, ważne jest, aby firmy były świadome tego, co robią ich konkurenci i znalazły sposób na konkurowanie, dorównując lub ulepszając produkt lub usługę konkurenta. Na przykład, jeśli Pepsi-Cola oferuje nowy napój gazowany bez kofeiny, Coca-Cola może zaoferować nowy napój gazowany bez kofeiny z tylko jedną kalorią. Oferując ulepszenie produktu konkurenta, Coca-Cola próbuje przekonać konsumentów napojów bezalkoholowych do zakupu nowego produktu Coke, ponieważ jest on ulepszeniem produktu Pepsi. Podczas gdy świadomość konkurencji i podejmowanie działań zaradczych jest ważne, bardzo ważne jest również zwracanie uwagi na zmieniające się pragnienia, potrzeby i wartości konsumentów oraz wprowadzanie niezbędnych zmian, zanim zrobi to konkurencja. Prowadzenie badań i rozwoju oraz bycie pierwszym, który dostarczy nowy produkt lub usługę, może dać firmie przewagę konkurencyjną na rynku. Gdy konsumenci kupią produkt lub usługę i będą z niej zadowoleni, zazwyczaj kupią ten sam produkt ponownie. Posiadanie przewagi konkurencyjnej oznacza, że firma robi coś lepiej niż konkurencja. Posiadanie przewagi konkurencyjnej może oznaczać wynalezienie nowego produktu; zapewnienie najlepszej jakości, najniższych cen lub najlepszej obsługi klienta; lub posiadanie najnowocześniejszej technologii. Aby określić obszar, w którym firma może mieć przewagę konkurencyjną, często przeprowadza się analizę SWOT w celu zidentyfikowania wewnętrznych mocnych i słabych stron firmy oraz zewnętrznych szans i zagrożeń. Analiza SWOT pozwala firmie dowiedzieć się, w których obszarach ma przewagę konkurencyjną, dzięki czemu może skoncentrować się na tych obszarach w produkcji i marketingu swoich produktów lub usług. Oprócz nadążania za zmieniającymi się preferencjami konsumentów, firmy muszą stale szukać sposobów na obniżenie kosztów i zwiększenie produktywności. Firmy muszą dostarczać konsumentom produkt najlepszej jakości przy najniższym koszcie, jednocześnie osiągając zysk, jeśli mają być skutecznymi konkurentami w dłuższej perspektywie. Jednym ze sposobów na utrzymanie konkurencyjności jest wykorzystanie technologii. Technologia może pomóc przyspieszyć procesy produkcyjne poprzez wykorzystanie robotów lub linii produkcyjnych, przesyłać informacje dokładniej i szybciej poprzez wykorzystanie systemów komputerowych oraz pomagać w pracach badawczo-rozwojowych. Globalna konkurencja sprawiła, że zdobycie akceptacji konsumentów stało się dla większości firm jeszcze trudniejszym wyzwaniem. Firmy w innych krajach mogą być w stanie produkować produkty i świadczyć usługi po niższych kosztach niż firmy amerykańskie. Aby konkurować, amerykańskie firmy muszą znaleźć inne sposoby na zdobycie konsumentów. Jednym ze sposobów na osiągnięcie tego jest konkurencyjne zróżnicowanie. Konkurencyjne zróżnicowanie ma miejsce, gdy firma w jakiś sposób odróżnia swój produkt lub usługę od produktów lub usług konkurencji. Konkurencyjne zróżnicowanie może być rzeczywistą różnicą, taką jak dłuższa gwarancja lub niższa cena, ale często różnica jest tylko postrzegana. Różnica w postrzeganiu jest zwykle osiągana za pomocą reklamy, której celem jest przekonanie konsumentów, że produkt jednej firmy różni się od produktu innej firmy. Typowe sposoby na zróżnicowanie produktu lub usługi obejmują reklamowanie produktu lepszej jakości, lepszej obsługi, lepszego smaku lub po prostu lepszego wizerunku. Konkurencyjne zróżnicowanie jest szeroko stosowane w monopolistycznej formie konkurencji, omówionej poniżej.
FORMY KONKURENCJI
Chociaż każda forma ma wiele aspektów, z których nie wszystkie można tutaj uwzględnić, konkurencję można ogólnie podzielić na cztery główne kategorie: konkurencja doskonała, konkurencja monopolistyczna, oligopol i monopol.
Doskonała konkurencja. Doskonała konkurencja (znana również jako czysta konkurencja) występuje, gdy duża liczba sprzedawców produkuje produkty lub usługi, które wydają się być identyczne. Tego typu przedsiębiorstwa są zazwyczaj prowadzone na małą skalę, a uczestnicy nie mają kontroli nad ceną sprzedaży swojego produktu, ponieważ żaden sprzedawca nie jest wystarczająco duży, aby dyktować cenę produktu. Zamiast tego cenę produktu ustala rynek. W branży doskonałej konkurencji jest wielu konkurentów i dość łatwo jest wejść do branży lub ją opuścić. Chociaż nie ma idealnych przykładów doskonałej konkurencji, produkty rolne są uważane za najbliższy przykład w dzisiejszej gospodarce. Kukurydza uprawiana przez jednego rolnika jest praktycznie identyczna z kukurydzą uprawianą przez innego rolnika, a obecny rynek kontroluje cenę, jaką rolnicy otrzymują za swoje plony. Doskonała konkurencja podlega prawu podaży i popytu. Jeśli cena produktu jest wysoka, konsumenci będą żądać mniej produktu, podczas gdy dostawcy będą chcieli dostarczyć więcej. Jeśli cena produktu jest niska, konsumenci będą żądać więcej produktu, ale dostawcy nie będą chcieli sprzedawać dużo po tak niskiej cenie. Punkt równowagi to miejsce, w którym popyt i podaż spotykają się i określają cenę rynkową. Na przykład, jeśli cena rynkowa pszenicy wynosi 5 USD za buszel, a rolnik próbuje sprzedać pszenicę za 6 USD za buszel, nikt jej nie kupi, ponieważ może ją dostać za 5 USD za buszel od kogoś innego. Z drugiej strony, jeśli rolnik oferuje sprzedaż pszenicy za 4 USD za buszel, plon zostanie sprzedany, ale rolnik stracił pieniądze, ponieważ plon jest wart 5 USD za buszel na wolnym rynku.
Konkurencja monopolistyczna. Konkurencja monopolistyczna występuje, gdy duża liczba sprzedawców produkuje produkt lub usługę, która jest postrzegana przez konsumentów jako inna niż produkt lub usługa konkurencji, ale w rzeczywistości jest dość podobna. To postrzeganie różnicy jest wynikiem zróżnicowania produktu, co jest kluczem do sukcesu w branży monopolistycznej. Produkty można różnicować na podstawie ceny, jakości, wizerunku lub jakiejś innej cechy, w zależności od produktu. Na przykład na rynku dostępnych jest obecnie wiele różnych marek mydła kąpielowego. Każda marka mydła jest podobna, ponieważ jest zaprojektowana tak, aby użytkownik był czysty; jednak każdy produkt mydlany stara się odróżnić od konkurencji, aby przyciągnąć konsumentów. Jedno mydło może twierdzić, że pozostawia miękką skórę, podczas gdy inne mydło może twierdzić, że ma czysty, świeży zapach. Każdy uczestnik tej struktury rynkowej ma pewną kontrolę nad ceną, co oznacza, że może zmieniać cenę sprzedaży, o ile konsumenci nadal chcą kupować jego produkt po nowej cenie. Jeśli jeden produkt kosztuje dwa razy więcej niż podobne produkty na rynku, istnieje prawdopodobieństwo, że większość konsumentów uniknie zakupu droższego produktu i zamiast tego kupi produkty konkurencji. W branży monopolistycznej może być niewielu lub wielu konkurentów (zwykle wielu), a wejście lub opuszczenie takiej branży jest dość trudne. Produkty monopolistyczne zwykle znajdują się w firmach detalicznych. Niektóre przykłady produktów i/lub usług monopolistycznych to produkty szamponowe, usługi eksterminacyjne, wymiana oleju, pasta do zębów i restauracje typu fast-food.
Oligopol. Oligopol (który jest opisany bardziej szczegółowo w innym artykule) istnieje, gdy w danej branży jest niewielu sprzedawców. Dzieje się tak, ponieważ wejście do branży wymaga dużej inwestycji, co utrudnia wejście lub wyjście. Przedsiębiorstwa działające w branży oligopolu są zazwyczaj bardzo duże, ponieważ mają zdolność finansową do dokonania niezbędnych inwestycji. Rodzaj produktów sprzedawanych w oligopolu może być podobny lub różny, a każdy sprzedawca ma pewną kontrolę nad ceną. Przykłady oligopoli obejmują przemysł samochodowy, lotniczy i stalowy.
Monopol. Monopol (który jest opisany bardziej szczegółowo w innym artykule) istnieje, gdy pojedynczy sprzedawca kontroluje dostawę dobra lub usługi i uniemożliwia innym przedsiębiorstwom wejście na rynek. Bycie jedynym dostawcą określonego dobra lub usługi daje sprzedawcy znaczną kontrolę nad ceną. Monopole są prawnie zakazane w Stanach Zjednoczonych; jednak w niektórych obszarach biznesowych istnieją monopole regulowane przez rząd ze względu na ogromne początkowe inwestycje, które muszą zostać dokonane w celu świadczenia niektórych rodzajów usług. Przykładami monopoli w Stanach Zjednoczonych są przedsiębiorstwa użyteczności publicznej, które świadczą usługi i/lub produkty, takie jak gaz, woda i/lub energia elektryczna.
Słownik Webstera definiuje konsumpcjonizm jako "ruch na rzecz ochrony konsumenta przed wadliwymi produktami, wprowadzającą w błąd reklamą itp." Ograniczona ochrona konsumenta istniała do lat 50. i początku lat 60. W latach 50. nastąpił znaczący przełom wraz z ustanowieniem koncepcji odpowiedzialności za produkt, zgodnie z którą powód nie musiał udowadniać zaniedbania, ale musiał jedynie udowodnić, że wadliwy produkt spowodował obrażenia. W swoim przemówieniu do Kongresu w 1962 r. prezydent John F. Kennedy przedstawił cztery podstawowe prawa konsumenta, które później stały się znane jako Karta praw konsumenta. Później, w 1985 r., Organizacja Narodów Zjednoczonych poparła Kartę praw konsumenta Kennedy′ego i rozszerzyła ją o osiem praw konsumenta. Ochrona konsumenta może przetrwać tylko w krajach wysoko uprzemysłowionych ze względu na zasoby potrzebne do finansowania interesów konsumentów. Karta praw konsumenta Kennedy′ego obejmowała prawo do informacji, prawo do bezpieczeństwa, prawo wyboru i prawo do bycia wysłuchanym. Prawo do bycia poinformowanym obejmuje ochronę przed wprowadzającymi w błąd informacjami w zakresie finansowania, reklamy, etykietowania i pakowania. Kilka ustaw z lat 60. i 70. dotyczyło tego prawa. Cigarette Labeling Act (1965), Fair Packaging and Labeling Act (1966) i Wholesome Meat Act (1967) dotyczyły opakowań. Te przepisy dotyczyły dokładnej identyfikacji zawartości produktu i wszelkich zagrożeń związanych z produktem. Truth-in-Lending Act wymagał pełnego ujawnienia wszystkich kosztów i rocznej stopy procentowej pożyczek ratalnych. Przed Truth-in-Lending rzeczywisty koszt był ukryty i trudny do obliczenia. Inny ważny akt prawny, Magnuson-Moss Warranty Act, wymaga gwarancji, która stwierdza, że produkt spełni normy wydajności i potwierdza, że gwarancja może być wyrażona lub dorozumiana. Inne regulacje miały miejsce na poziomie stanowym. Czterdzieści stanów ma prawo o odstąpieniu od umowy, które pozwala konsumentowi zmienić zdanie podczas zakupu produktów od sprzedawców bezpośrednich. Drugie prawo konsumenta, prawo do bezpieczeństwa, dotyczy obrażeń spowodowanych korzystaniem z produktów innych niż samochody. Aby rozwiązać ten problem, rząd powołał w 1972 r. Komisję ds. Bezpieczeństwa Produktów Konsumenckich (CPSC). CPSC ma jurysdykcję nad trzynastoma tysiącami różnych produktów. Uprawnienia CPSC obejmują prawo do wymagania etykiet ostrzegawczych, ustalania norm wydajności, żądania natychmiastowego powiadomienia o wadliwym produkcie i nakazywania testowania produktu. Jednak jej największą mocą jest wycofanie produktu. Prawo wyboru konsumenta oznacza, że konsument powinien mieć do wyboru szereg produktów różnych firm przy podejmowaniu decyzji o zakupie. Aby zapewnić te prawa, rząd podjął szereg działań, takich jak nałożenie ograniczeń czasowych na patenty, rozpatrywanie fuzji z punktu widzenia ograniczenia wyboru konsumenta oraz zakaz nieuczciwego obniżania cen i innych nieuczciwych praktyk biznesowych. Ostatecznym prawem konsumenta jest prawo do bycia wysłuchanym. Obecnie żadna agencja rządowa nie jest odpowiedzialna za rozpatrywanie skarg konsumentów. Jednak szereg agencji rządowych podejmuje próby ochrony niektórych praw konsumentów. Biuro ds. Konsumentów publikuje Consumer′s Resource Handbook, w którym wymienione są agencje, które działają w obszarze praw konsumentów. Ponadto wiele grup konsumenckich składa skargi do rządu i grup branżowych. Rozwój konsumpcjonizmu w tym kraju nie obył się bez sprzeciwu. Chociaż korporacje podjęły pozytywne kroki w wielu obszarach, sprzeciwiały się również promowaniu niektórych praw konsumentów. Ponieważ korporacje mogą mieć głębokie kieszenie, mogą odwoływać się od spraw sądowych i spowalniać procesy sądowe. Jednak obecnie, ze względu na wcześniejsze sukcesy, potrzeba ochrony konsumentów nie jest tak duża, jak w latach ubiegłych.
Korporacja biznesowa to podmiot prawny, któremu prawo zezwala na istnienie w każdym stanie w celu prowadzenia legalnej działalności biznesowej. Jest to sztuczna osoba stworzona na mocy prawa, z wieloma takimi samymi prawami i obowiązkami, jakie mają ludzie. Korporacje są szeroko rozpowszechnione w Stanach Zjednoczonych; obecnie praktycznie każde duże przedsiębiorstwo jest korporacją.
PRAWA I PRZYWILEJE KORPORACJI
Zgodnie z wytycznymi prawnymi korporacje mogą emitować akcje, ogłaszać dywidendy i zapewniać właścicielom ograniczoną odpowiedzialność. Akcje Korporacja może emitować i próbować sprzedawać akcje. Każda posiadana akcja stanowi część własności korporacji. Z punktu widzenia sprzedaży akcji istnieją dwa rodzaje korporacji: publiczne i prywatne. W przypadku korporacji publicznej każdy może kupić akcje, które mogą być przedmiotem obrotu na giełdzie papierów wartościowych. W przypadku korporacji prywatnej sprzedaż akcji może być jednak ograniczona do określonych osób, takich jak członkowie rodziny głównego akcjonariusza. Korporacja może posiadać "akcje skarbowe"; to znaczy, że może odkupić własne akcje, które wcześniej wyemitowała i sprzedała. Spółka może nawet rozdać swoje akcje z dowolnego powodu; na przykład jako darowiznę na cele charytatywne lub jako nagrodę dla pracowników za pracowitą służbę.
Dywidendy. Rada dyrektorów spółki ma prawo do deklarowania i wypłacania dywidend w formie gotówki lub akcji. Dywidendy pieniężne są zazwyczaj wypłacane z bieżącego dochodu netto, chociaż dochód netto "zatrzymany" z lat poprzednich może być również używany. Popularną nazwą dla zatrzymanego dochodu netto jest "zatrzymany zysk". Odbiorcy dywidend akcyjnych otrzymują akcje spółki, zwiększając w ten sposób całkowitą liczbę posiadanych przez siebie akcji. Dywidendy akcyjne są deklarowane z kapitału zakładowego, który został autoryzowany, ale nie wyemitowany. Istnieją zasady dotyczące kwalifikowalności do otrzymania dywidendy. Na przykład załóżmy, że dywidenda pieniężna jest ogłaszana 15 sierpnia, a płatna 15 września. Jeśli Akcjonariusz A jest właścicielem akcji 15 sierpnia, otrzymuje dywidendę 15 września. Jeśli Akcjonariusz A sprzedaje akcje 27 sierpnia, Nabywca B kupuje je "bez praw", co oznacza, że 15 września dywidenda nadal trafia do Akcjonariusza A. Nabywca B nie otrzyma dywidendy, dopóki nie zostanie ogłoszona następna, być może 15 listopada. Odbiorcy dywidend pieniężnych płacą podatek dochodowy od roku otrzymania dywidend. Podatek dochodowy od dywidend akcyjnych jest jednak odraczany do czasu, aż odbiorcy sprzedadzą akcje. Czasami korporacje dzielą swoje akcje. Nie zmienia to jednak wartości akcji akcjonariusza w dokumentach korporacji ani wartości netto korporacji. Podział akcji jest często dobrym znakiem, ponieważ często dokonuje się go w celu obniżenia ceny akcji, która wzrosła do punktu, w którym jej zbywalność jest ograniczona. Ograniczona odpowiedzialność Jeśli korporacja poniesie duże straty finansowe lub nawet zakończy działalność, akcjonariusze mogą stracić część lub całość swojej całkowitej inwestycji. Jednak zazwyczaj jest to zakres ich strat. Wierzyciele nie mogą zaspokoić swoich roszczeń, patrząc na aktywa osobiste akcjonariuszy korporacyjnych, tak jak robią to w przypadku jednoosobowej działalności gospodarczej lub zwykłej spółki partnerskiej. Ograniczona odpowiedzialność może być korzystna, ponieważ zachęca do inwestowania w korporację. Przy aktywach osobistych w wysokości 1,1 miliona dolarów potencjalny inwestor może chętnie zainwestować 50 000 dolarów w korporację, wiedząc, że nie istnieje żadne ryzyko wykraczające poza 50 000 dolarów. Zaleta ograniczonej odpowiedzialności może jednak zostać utracona, jeśli właściciele bezpośrednio zaangażują się w zarządzanie spółką i odegrają wpływową rolę w powodowaniu strat korporacyjnych.
WYMAGANIA LUB OGRANICZENIA KORPORACJI
Korporacje podlegają ryzyku, pozwom i zobowiązaniom podatkowym od dochodów.
Ryzyko.Angażując się w działalność gospodarczą, korporacje są narażone na ryzyko, duże lub małe. Korporacje nastawione na zysk mogą bardzo dobrze znaleźć duże zyski, których szukają. Ale ryzykują ogromne straty ekonomiczne, a nawet bankructwo.
Pozwy. Korporacje mogą być pozywane przez dowolną firmę, w tym inne korporacje. Mogą być również pozywane przez osoby fizyczne lub grupy osób.
Podatek dochodowy.Korporacje muszą płacić federalne i stanowe podatki dochodowe od zysku netto, jaki osiągają w ciągu roku kalendarzowego lub podatkowego. Osoby otrzymujące dywidendy pieniężne muszą również zapłacić podatek dochodowy za rok ich otrzymania. Dlatego często mówi się, że zyski korporacji podlegają podwójnemu opodatkowaniu. Korporacje nie otrzymują żadnego odliczenia od wypłacanych dywidend pieniężnych. Odbiorcy dywidend akcyjnych odraczają jednak zapłatę podatku dochodowego od dywidend akcyjnych do czasu sprzedaży akcji.
REGULACJE DOTYCZĄCE KORPORACJI
Korporacje podlegają dwóm rodzajom regulacji: (1) regulacji przez stan, w którym są zarejestrowane oraz (2) regulacji przez statuty i regulaminy poszczególnych korporacji.
Regulacje stanowe. Korporacje są regulowane przez prawa dotyczące korporacji biznesowych, które obowiązują we wszystkich pięćdziesięciu stanach. Chociaż statuty określają, co korporacje mogą, a czego nie mogą robić, są one pisane szerokim i ogólnym językiem. W istocie zatem stany zezwalają na pisanie statutów w sposób, który pozwala korporacjom prowadzić działalność gospodarczą w niemal każdym celu prawnym. Statuty są składane publicznie i są dostępne publicznie. Mogą być zmieniane. Statuty nie są składane publicznie. W związku z tym są one zazwyczaj bardziej szczegółowe niż statuty.
Rada dyrektorów. Członkowie rady dyrektorów podejmują najważniejsze decyzje dotyczące korporacji. Kiedy korporacje są tworzone, sporządzają statuty, zwykle do zatwierdzenia przez akcjonariuszy. Rada dyrektorów sporządza również początkowy i późniejszy statut. Członkowie rady są najczęściej akcjonariuszami i urzędnikami korporacji. Są wybierani przez akcjonariuszy. Mogą być dyrektorami "wewnętrznymi" lub, ze względu na dobre stosunki publiczne lub zdobycie wiedzy specjalistycznej, mogą pracować "na zewnątrz" i być wybierani na podstawie ich wybitnej roli w społeczności. Polityki ustalone przez radę dyrektorów są realizowane przez kadrę kierowniczą korporacji, która kieruje pracą pracowników podległych jej jurysdykcji.
KLASY AKCJI
Spółki zazwyczaj mają dwie klasy akcji: (1) zwykłe i (2) uprzywilejowane. Te dwie klasy różnią się pod wieloma względami, ale obie mają też wiele wspólnych cech. Nie ma ograniczeń co do liczby klas akcji, jakie może mieć spółka.
Akcje zwykłe. Akcjonariusze zwykli uczestniczą w zarządzaniu spółką bardziej niż akcjonariusze uprzywilejowani. Jest to realizowane poprzez przyznanie akcjonariuszom zwykłym prawa głosu w wyborach członków zarządu, a także w ważnych decyzjach (np. fuzji z inną spółką). Jednak akcje zwykłe mogą być emitowane bez prawa głosu. Powszechne jest głosowanie łączne, które pozwala akcjonariuszom oddać jeden głos za każdą posiadaną akcję zwykłą w dowolnej kombinacji. Na przykład w wyborach członków zarządu akcjonariusz posiadający 2000 akcji zwykłych może oddać wszystkie 2000 głosów na jednego kandydata lub podzielić je w dowolny sposób między kandydatów (np. 400 głosów na pięciu kandydatów). Łączne głosowanie zapewnia pewną ochronę mniejszym akcjonariuszom. Wartość rynkowa akcji zwykłych ma tendencję do większych wahań niż wartość akcji uprzywilejowanych.
Akcje uprzywilejowane. Akcjonariusze uprzywilejowani zazwyczaj nie otrzymują praw głosu, jakie mają akcjonariusze zwykli. Nie mogą uczestniczyć w wyborach członków zarządu ani w podejmowaniu ważnych decyzji korporacji. Jednak akcjonariusze uprzywilejowani mają prawie zawsze pierwszeństwo przed akcjonariuszami zwykłymi w kwestii dywidend. Dywidendy dla akcjonariuszy uprzywilejowanych są często podawane z góry i nie mają tendencji do tak dużych wahań jak te dla akcji zwykłych. Dywidendy uprzywilejowane mogą być podawane jako procent wartości nominalnej lub jako kwota w dolarach na akcję. Jednak dywidendy uprzywilejowane nie są gwarantowane w takim samym sensie jak odsetki od obligacji.
Ani dywidendy z akcji uprzywilejowanych, ani zwykłych nie mogą być wypłacane bez zgody zarządu. A zarządy mogą "pominąć" ogłoszenie dywidendy, jeśli dyrektorzy uznają, że sytuacja finansowa tego wymaga. Akcje uprzywilejowane są często "kumulatywne". Zgodnie z tym postanowieniem dywidenda z akcji uprzywilejowanych, która nie została zadeklarowana ani wypłacona, jest uważana za "należną". Dopóki dywidenda uprzywilejowana jest "należna", dywidenda z akcji zwykłych nie może być zazwyczaj zadeklarowana ani wypłacona. Jednak nawet jeśli akcje uprzywilejowane nie są kumulatywne, często stosowaną zasadą jest to, że dywidendy z akcji zwykłych nie mogą być zadeklarowane, dopóki dywidendy uprzywilejowane są "zaległe". Czasami akcje uprzywilejowane są "zamienne". Akcjonariusze, którzy posiadają zamienne akcje uprzywilejowane, mogą, po cenie ogłoszonej w momencie zakupu akcji, wymienić swoje akcje uprzywilejowane i otrzymać w zamian akcje zwykłe. Załóżmy na przykład, że inwestor kupuje akcje uprzywilejowane po 36,50 USD za akcję. Akcje są zamienne cztery lata od ich emisji w stosunku 3:1; to znaczy, że trzy akcje uprzywilejowane mogą być przedmiotem obrotu według wyboru akcjonariusza za jedną akcję zwykłą. Przy stosunku 3:1, po zdyskontowaniu wszelkich powiązanych kosztów transferu, akcjonariusz uprzywilejowany uznałby za opłacalne dokonanie konwersji, jeśli wartość akcji zwykłych wzrośnie powyżej 109,50 USD za akcję (36,50 USD 3). Akcje uprzywilejowane mogą być "wykupywalne". Na wniosek korporacji akcje uprzywilejowane wykupywalne mogą zostać odkupione przez korporację, zwykle po cenie nieco wyższej od wartości nominalnej (lub określonej wartości). Jeśli określona wartość wynosi 50 USD, cena wykupywalna w określonym dniu lub po nim może wynieść 51,25 USD. Jeśli wartość rynkowa akcji wzrośnie, powiedzmy, do 55 USD, dla korporacji może być opłacalne odkupienie akcji. Czasami akcje uprzywilejowane otrzymują prawo do "uczestnictwa" wraz z akcjami zwykłymi w otrzymywaniu dywidend powyżej określonej wartości. Na przykład załóżmy, że rada dyrektorów ogłasza regularną dywidendę z akcji uprzywilejowanych w wysokości 3 USD za akcję i dywidendę z akcji zwykłych w wysokości 13 USD za akcję. W przypadku praw uczestnictwa ustalono by, że akcjonariusze uprzywilejowani otrzymaliby 1 USD więcej za każdą dodatkową kwotę 5 USD przekazaną akcjonariuszom zwykłym. Jeśli korporacja zamknie swoją działalność, akcjonariusze uprzywilejowani mają pierwszeństwo przed akcjonariuszami zwykłymi po rozwiązaniu aktywów. Wystarczająca część aktywów korporacji musiałaby zostać przekazana akcjonariuszom uprzywilejowanym, zanim akcjonariusze zwykli mogliby rościć sobie prawo do jakiejkolwiek części aktywów. W praktyce jednak aktywa zamkniętej korporacji rzadko wystarczają, aby spłacić akcjonariuszy uprzywilejowanych w całości.
POWIĄZANE FORMY WŁASNOŚCI FIRM
Pięć rodzajów podmiotów gospodarczych podlega przepisom podobnym do tych obowiązujących korporacje.
Profesjonalne korporacje. Profesjonalne korporacje, zorganizowane na podstawie prawa korporacyjnego swoich stanów, obejmują włączenie przez osoby zajmujące się praktyką zawodową, takie jak lekarze, prawnicy i architekci. Przyznaje się im ograniczoną odpowiedzialność przed roszczeniami ich klientów, z wyjątkiem błędów w sztuce lekarskiej.
Korporacje non-profit. Korporacje non-profit, utworzone na podstawie prawa non-profit swoich stanów, mają członków zamiast akcjonariuszy. Wszelkie uzyskane dochody nie mogą być dystrybuowane do członków. Niektóre ubiegają się w Internal Revenue Service o status zwolnienia z podatku, stając się organizacjami "501(c)(3)", co pozwala na uznanie darowizn darczyńców za odliczalne od podatku.
Korporacje zamknięte. Korporacje zamknięte, niedozwolone przez ustawę we wszystkich stanach, ograniczają liczbę akcjonariuszy do pięćdziesięciu. Pozwalają firmie działać nieformalnie, albo poprzez wyeliminowanie zarządu, albo ograniczenie jego uprawnień. Korporacje zamknięte ograniczają również zbywalność akcji właścicieli.
Spółki z ograniczoną odpowiedzialnością .Spółki z ograniczoną odpowiedzialnością korzystają z zalet ograniczonej odpowiedzialności, będąc jednocześnie opodatkowanymi jak spółki jawne. Dochód netto właścicieli jest opodatkowany według stawki indywidualnej, a nie według stawki korporacji (opodatkowanie zarówno dochodu netto korporacji, jak i dywidend). Nie wszystkie stany zezwalają na tworzenie spółek z ograniczoną odpowiedzialnością. Nie są one ani spółką partnerską, ani korporacją. Zazwyczaj mają ograniczony okres istnienia. Zarządzanie musi być prowadzone przez małą grupę. Stany nie ograniczają liczby ani rodzaju członków. Nieograniczona przenoszalność własności jest niedozwolona.
Spółki S. Główną zaletą spółek S jest to, że są opodatkowane jak spółki partnerskie. Podatek dochodowy właścicieli jest oparty na ich udziale w całkowitym dochodzie netto firmy, niezależnie od tego, czy jest on im wypłacany. Drugą ogromną zaletą jest ograniczona odpowiedzialność. Jednak spółka S jest ograniczona do trzydziestu pięciu udziałowców, z których żaden nie może być obcokrajowcem niebędącym rezydentem. Można wyemitować lub posiadać tylko jedną klasę akcji. Spółka S może posiadać tylko 80 procent spółki zależnej.
Słowo koszt pojawia się w wielu terminach, niektóre z subtelnymi różnicami znaczeniowymi, używanych w księgowości, ekonomii i biznesie. Pojedyncze słowo koszt rzadko ma jasne znaczenie. (Słowo wartość również nie ma jasnego znaczenia. Unikaj używania wartości bez modyfikującego przymiotnika, takiego jak rynek, teraźniejszość lub księgowość). Słowo koszt, bez modyfikujących przymiotników, zazwyczaj oznacza poświęcenie, mierzone zapłaconą lub wymaganą do zapłaty cenę, aby nabyć towary lub usługi. Stąd pojedyncze słowo koszt często ma znaczenie dokładniej reprezentowane przez następujące.
koszt nabycia. koszt historyczny. Cena netto plus wszystkie wydatki na przygotowanie przedmiotu do zamierzonego użytku w momencie nabycia przedmiotu przez firmę. Inne wydatki mogą obejmować opłaty prawne, koszty transportu i koszty instalacji. Księgowi mogą łatwo zmierzyć koszt nabycia, ale ekonomiści i menedżerowie często uważają to za mniej przydatne w podejmowaniu decyzji. Ekonomiści i menedżerowie częściej zwracają uwagę na jakąś miarę bieżących kosztów, które księgowym trudniej zmierzyć.
koszt bieżący. Koszt odtworzenia lub wartość netto możliwa do uzyskania.
koszt odtworzenia. Koszt nabycia w dniu pomiaru, zazwyczaj bieżącym, w przeciwieństwie do wcześniejszej daty nabycia.
wartość netto możliwa do uzyskania. Kwota, jaką firma może uzyskać w gotówce ze sprzedaży przedmiotu, pomniejszona o koszty (takie jak prowizje i koszty dostawy) zbycia.
Gdy księgowi używają pojęcia bieżącego kosztu, najczęściej odnoszą się do wartości godziwej.
wartość godziwa. Cena negocjowana na warunkach rynkowych między chętnymi kupującymi i chętnymi sprzedawcami, z których każdy działa racjonalnie w swoim własnym interesie. Czasami mierzona jako wartość bieżąca oczekiwanych przepływów pieniężnych.
Księgowi często przeciwstawiają (rzeczywisty) koszt historyczny kosztowi standardowemu.
koszt standardowy. Oszacowanie, ile kosztów firma powinna ponieść, aby wytworzyć dobro lub usługę. Pomiar ten odgrywa rolę w rachunkowości kosztów w sytuacjach, w których kierownictwo potrzebuje oszacowania poniesionych kosztów, zanim upłynie wystarczająco dużo czasu na obliczenie rzeczywistych poniesionych kosztów
Poniższe terminy rozdzielają koszt historyczny na składniki.
koszt zmienny. Koszty, które zmieniają się wraz ze zmianą poziomu aktywności. (Termin czynnik kosztowy odnosi się do aktywności, która powoduje zmianę kosztów.) Ściśle rzecz biorąc, koszty zmienne są zerowe, gdy poziom aktywności jest zerowy. Uważni autorzy używają terminu koszty półzmienne, aby oznaczać koszty, które rosną ściśle liniowo wraz z aktywnością, ale mają wartość dodatnią przy zerowym poziomie aktywności. Opłaty licencyjne w wysokości 2 procent sprzedaży są zmienne; opłaty licencyjne w wysokości 1000 USD rocznie plus 2 procent sprzedaży są półzmienne.
koszt stały. Koszt, który nie zmienia się wraz ze zmianą poziomu aktywności, przynajmniej przez pewien okres czasu. W dłuższej perspektywie wszystkie koszty mogą się zmieniać.
Podczas rozliczania kosztów produktu lub usług lub segmentów działalności księgowi czasami rozdzielają koszty całkowite na te, które przynoszą korzyści określonemu produktowi i te, które przynoszą korzyści wszystkim produktom wytwarzanym wspólnie.
koszt możliwy do prześledzenia. koszt bezpośredni. Koszt, który firma może powiązać z określonym produktem, takim jak koszt układu scalonego zainstalowanego w danym komputerze osobistym lub z jakąś aktywnością.
koszt wspólny. koszt wspólny. koszt pośredni. Koszt poniesiony w celu skorzystania z więcej niż jednego produktu lub działalności, taki jak koszt wynajmu budynku fabrycznego, w którym firma produkuje kilka różnych rodzajów komputerów osobistych lub koszt wołu, z którego firma wytwarza skórę i hamburgery. Niektórzy ograniczają termin koszt wspólny do sytuacji, takich jak pierwsza, w której firma decyduje się na wspólną produkcję produktów, podczas gdy ograniczają koszty wspólne do sytuacji, takich jak druga, w której firma musi ponieść koszt jednocześnie. Głównym problemem w rachunkowości kosztów jest alokacja kosztów wspólnych i łącznych do poszczególnych produktów. Menedżerowie i organy regulacyjne (np. Komisja Papierów Wartościowych i Giełd oraz IRS) często nalegają na takie alokacje, podczas gdy ekonomiści i niektórzy księgowi uznają, że takie alokacje nie pomagają w podejmowaniu decyzji.
Prawie wszystkie koszty rejestrowane przez księgowych wymagają w pewnym momencie nakładu gotówkowego. Analitycy czasami muszą rozróżniać koszty związane z bieżącymi lub przyszłymi wydatkami gotówkowymi od tych, w których wydatek już wystąpił.
koszt własny. koszt nakładów. koszt gotówkowy. Pozycja wymagająca bieżącego lub przyszłego wydatku gotówkowego.
koszt księgowy. koszt utopiony. Poniesienie kosztów, w przypadku których wydatek gotówkowy już nastąpił, np. koszt amortyzacji maszyny zakupionej kilka lat temu. (W księgowości amortyzacja jest alokacją poprzedniego wydatku, podczas gdy w ekonomii amortyzacja oznacza spadek wartości bieżącej.)
W procesie podejmowania decyzji powyższe koncepcje kosztów często podlegają dalszemu uściśleniu w następujący sposób.
koszt przyrostowy. koszt krańcowy. koszt różnicowy. koszt możliwy do uniknięcia. Firma poniesie (zaoszczędzi) koszty przyrostowe, jeśli zrealizuje (lub zatrzyma) projekt. Te cztery terminy mają zwykle to samo znaczenie, z tym wyjątkiem, że ekonomista ogranicza termin koszt krańcowy do kosztu wyprodukowania jeszcze jednej jednostki. Tak więc następna jednostka ma koszt krańcowy; produkcja w następnym tygodniu ma koszt przyrostowy. Jeśli firma produkuje i sprzedaje nowy produkt, powiązane nowe koszty byłyby właściwie nazywane przyrostowymi, a nie krańcowymi. Jeśli fabryka jest zamknięta, zaoszczędzone koszty są przyrostowe, a nie krańcowe.
nieunikniony koszt. nieunikniony koszt. utopiony koszt. Nieuniknione koszty wystąpią niezależnie od tego, czy zostanie podjęta decyzja o kontynuowaniu, czy nie, ponieważ firma już wydała lub zobowiązała się wydać gotówkę. Nie wszystkie nieuniknione koszty są kosztami księgowymi; rozważmy pensję obiecaną, ale jeszcze nie zarobioną, którą firma zapłaci, jeśli podejmie decyzję o niekontynuowaniu. Koszty utopione to koszty przeszłe, na które obecne i przyszłe decyzje nie mają wpływu, a zatem są nieistotne dla podejmowania decyzji (poza skutkami podatku dochodowego). Na przykład koszt nabycia maszyny nie ma znaczenia dla decyzji o jej złomowaniu.
Podejmując taką decyzję, należy wziąć pod uwagę jedynie poświęcenie wynikające z dalszego posiadania maszyny i koszt, powiedzmy, energii elektrycznej potrzebnej do jej uruchomienia, oba są kosztami przyrostowymi. Koszty utopione stają się istotne dla podejmowania decyzji, gdy analiza wymaga uwzględnienia podatku dochodowego (zysku lub straty ze zbycia aktywów), ponieważ płatność gotówkowa z tytułu podatku dochodowego zależy od podstawy opodatkowania aktywów. Unikaj używania niejednoznacznego terminu koszty utopione. Rozważmy na przykład maszynę kosztującą 100 000 USD z obecną wartością odzysku wynoszącą 20 000 USD. Niektórzy powiedzieliby, że 100 000 USD jest "utopione"; inni powiedzieliby, że tylko 80 000 $ jest "utopione". Ci, którzy mówią 100 000 $, mają na myśli koszt brutto, podczas gdy ci, którzy mówią 80 000 $, mają na myśli koszt netto - pierwotną kwotę pomniejszoną o bieżący koszt alternatywny.
Podejmując decyzję, których pracowników nagrodzić, kierownictwo często dba o rozdzielenie rzeczywistych kosztów na te, które są kontrolowane i te, których nie może kontrolować dany pracownik lub dział. Na wszystkie koszty może mieć wpływ ktoś w firmie; ci, którzy projektują systemy zachęt, próbują obarczyć osobę odpowiedzialnością za koszt tylko wtedy, gdy ta osoba może wpłynąć na wysokość kosztu. Firma ponosi koszty, ponieważ uważa, że odniesie korzyści. Ostrożne stosowanie terminów kosztowych rozróżnia nakłady, z których firma będzie czerpać korzyści w przyszłości, od tych, z których firma już czerpała korzyści. Rachunkowość rozróżnia koszty, które mają przyszłe korzyści, nazywając je aktywami i przeciwstawiając je kosztom, których korzyści firma już wykorzystała, nazywając je wydatkami. Inne pary terminów obejmujące to rozróżnienie to koszt nieprzeterminowany kontra koszt przeterminowany i koszt produktu kontra koszt okresu. Ekonomiści, menedżerowie i regulatorzy dokonują dalszych rozróżnień między koncepcjami kosztów w następujący sposób.
koszt w pełni pochłonięty kontra koszt zmienny. Koszty w pełni pochłonięte odnoszą się do kosztów, w przypadku których firma przydzieliła stałe koszty produkcji do produktów wytwarzanych lub działów w firmie zgodnie z wymogami powszechnie przyjętych zasad rachunkowości. Koszty zmienne mogą być natomiast bardziej istotne przy podejmowaniu decyzji, takich jak ustalanie cen lub decydowanie, czy firma ustaliła cenę poniżej kosztów dla celów antymonopolowych. koszt w pełni pochłonięty kontra koszt pełny. W przypadku kalkulacji kosztów pełnych analiza przydziela wszystkie koszty, koszty produkcji, a także centralne koszty korporacyjne (w tym koszty finansowania), do produktów lub działów. W przypadku kalkulacji kosztów pełnych firma przydziela tylko koszty produkcji do produktu. Tylko w przypadku kalkulacji kosztów pełnych przychody, wydatki i dochód zsumowane dla wszystkich produktów lub działów będą równe przychodom, wydatkom i dochodom korporacyjnym.
koszt alternatywny kontra koszt nakładów. Koszt alternatywny odnosi się do korzyści ekonomicznej utraconej w wyniku wykorzystania zasobu do jednego celu, a nie innego. Jeśli firma może sprzedać maszynę za 200 000 USD, wówczas koszt alternatywny wykorzystania tej maszyny w operacjach wynosi 200 000 USD niezależnie od jej kosztów nakładów, kosztów księgowych lub kosztów historycznych.
Koszt przyszły kontra koszt przeszły. Skuteczne podejmowanie decyzji analizuje tylko obecne i przyszłe koszty nakładów lub koszty własne. Optymalne decyzje wynikają z wykorzystania przyszłych kosztów, podczas gdy sprawozdawczość finansowa wykorzystuje koszty przeszłe.
Koszt krótkoterminowy kontra koszt długoterminowy. Dla danej konfiguracji zakładu i sprzętu koszty krótkoterminowe zmieniają się wraz ze zmianą produkcji. Firma może ponieść koszty długoterminowe, aby zmienić tę konfigurację. Ta para terminów jest ekonomiczną analogią pary księgowej, o której mowa powyżej, kosztów zmiennych i stałych. Analogia jest niedokładna, ponieważ niektóre koszty krótkoterminowe są stałe, takie jak podatki od nieruchomości w fabryce.
koszt przypisany kontra koszt księgowy. Koszty przypisane nie pojawiają się w historycznych zapisach księgowych kosztów dla sprawozdawczości finansowej. Rzeczywisty poniesiony koszt jest rejestrowany i nazywany jest kosztem księgowym. Niektórzy regulatorzy obliczają koszt kapitału własnego właścicieli dla różnych celów; są to koszty przypisane. Koszty alternatywne to koszty przypisane i są istotne dla podejmowania decyzji.
koszt średni kontra koszt krańcowy. Jest to ekonomiczne rozróżnienie równoważne w pełni pochłoniętemu kosztowi produktu i zmiennemu kosztowi produktu. Koszt średni to całkowity koszt podzielony przez liczbę jednostek. Koszt krańcowy to koszt wytworzenia następnej jednostki (lub ostatniej jednostki)
koszt różnicowy kontra koszt zmienny. To, czy koszt zmienia się, czy pozostaje stały, zależy od rozważanej podstawy działalności.
Zazwyczaj, ale nie zawsze, analitycy określają koszty jako zmienne lub stałe w odniesieniu do podstawy działalności, takiej jak zmiany poziomów produkcji. Zazwyczaj, ale nie zawsze, analitycy określają koszty jako przyrostowe lub nie, w odniesieniu do podstawy działalności, takiej jak podjęcie jakiegoś nowego przedsięwzięcia. Rozważmy decyzję o podjęciu produkcji robotów kuchennych, a nie blenderów, którą produkował producent. Produkcja robotów kuchennych wymaga nabycia nowego narzędzia maszynowego. Koszt nowego narzędzia maszynowego jest przyrostowy w stosunku do decyzji o produkcji robotów kuchennych zamiast blenderów, ale po nabyciu staje się stałym kosztem produkcji robotów kuchennych. Rozważmy firmę, która poniesie koszty bezpośredniej pracy przy produkcji robotów kuchennych lub blenderów, w zależności od tego, które z nich produkuje. Załóżmy, że firma nie może produkować obu. Taka praca jest zmienna w stosunku do produkcji mierzonej w jednostkach, ale nie jest przyrostowa w stosunku do decyzji o produkcji robotów kuchennych zamiast blenderów. To rozróżnienie często zaciera się w praktyce, dlatego dokładne zrozumienie rozważanej podstawy działalności jest konieczne do zrozumienia pojęć stosowanych w konkretnym zastosowaniu.
Analiza działalności operacyjnej i produkcyjnej wykorzystuje następujące podziały stałych (historycznych) kosztów. Koszty stałe mają następujące składniki:

Koszty zdolności produkcyjnej (koszty zobowiązane) dają firmie możliwość produkcji lub sprzedaży, podczas gdy koszty zaprogramowane (koszty zarządzane, koszty uznaniowe), takie jak koszty reklamy lub badań, mogą być nieistotne, ale gdy firma zdecyduje się je ponieść, stają się kosztami stałymi. Firma poniesie koszty gotowości, nawet jeśli nie wykorzysta istniejącej zdolności produkcyjnej; przykłady obejmują podatki od nieruchomości i amortyzację budynku. Firma może uniknąć kosztów umożliwiających, takich jak koszty sił bezpieczeństwa, jeśli nie wykorzysta zdolności produkcyjnej. Koszt stały w szerokim zakresie, ale który może się zmieniać, to koszt półstały lub "koszt krokowy". Przykładem jest koszt linii kolejowych od fabryki do głównej linii kolejowej, gdzie koszt stały zależy od tego, czy jest jedna czy dwie równoległe linie, ale jest niezależny od liczby pociągów kursujących dziennie. Koszty półzmienne łączą ściśle stały koszt składowy i składnik zmienny. Opłaty telefoniczne zwykle mają stały miesięczny składnik plus opłatę związaną z użytkowaniem.
Do lat 20. XX wieku zakupy konsumenckie w Stanach Zjednoczonych były dokonywane głównie na jeden z dwóch sposobów: gotówką lub czekiem osobistym. Jednak w tej dekadzie wprowadzono nowy środek płatniczy - rachunek kredytowy. Podczas gdy transakcje kredytowe były powszechne od dawna w relacjach między firmami, były nowością na rynku konsumenckim. Rachunek kredytowy umożliwiał konsumentowi odroczenie płatności za zakup dokonany dzisiaj na jakiś czas w przyszłości: w ten sposób narodziło się wyrażenie "kup teraz, zapłać później". Dowodem posiadania rachunku kredytowego była zazwyczaj karta - karta kredytowa. Od lat 20. XX wieku pojawiły się różne rodzaje kart kredytowych. Ponadto na rynku konsumenckim pojawiły się również powiązane rodzaje kart: karta debetowa, a także karta bankomatowa i karta inteligentna, a także karta podróżna i karta obciążeniowa. Każdy rodzaj karty zostanie zdefiniowany i wyjaśniony w tym wpisie.
KARTY KREDYTOWE
Karta kredytowa to plastikowa karta wielkości kieszonkowej, która pozwala posiadaczowi na dokonanie zakupu na rachunku kredytowym, który zostanie spłacony w pewnym momencie w przyszłości. Spłata może być dokonana w jednej kwocie lub w serii kwot. Karta kredytowa będzie zawierać co najmniej dane identyfikacyjne użytkownika według imienia, numeru rachunku i podpisu. Najwcześniejsze karty kredytowe w Stanach Zjednoczonych były wydawane przez firmy paliwowe i sklepy detaliczne. Dlatego w pierwszej połowie XX wieku dość powszechne było posiadanie karty kredytowej Esso, Sears i/lub lokalnego domu towarowego. Te wczesne karty były wydawane przez samą prywatną firmę na podstawie polityki kredytowej tej firmy. Wiele kont miało zostać opłaconych w miesiącu następującym po zakupie. Inne były rachunkami obciążeniowymi, na których częściowa płatność była oczekiwana co miesiąc, z opłatą za odsetki od kwot niezapłaconych terminowo. Jeśli salda rachunków kredytowych nie zostały opłacone, firma wydająca ponosiła stratę. Tak więc decyzja o wydaniu karty kredytowej była przemyślanym procesem ze strony firmy. Często trzy C kredytu były stosowane do wnioskodawcy kredytowego: charakter, zdolność i kapitał. Charakter odnosił się do historii wnioskodawcy w płaceniu poprzednich rachunków - jego lub jej historii kredytowej. Zdolność oznaczała potencjał zarobkowy (wynagrodzenie) wnioskodawcy. Kapitał odnosił się do aktywów netto (aktywa minus zobowiązania) osoby. Uzyskanie karty kredytowej było dalekie od automatycznego procesu. Główne zmiany w charakterze i rodzajach kart kredytowych nastąpiły w latach 50. W tej dekadzie pojawiły się dwa rodzaje kart kredytowych: karta obciążeniowa i karta kredytowa bankowa. Karta obciążeniowa jest omawiana jako karta podróżna w dalszej części tego wpisu. Karta kredytowa bankowa rozszerzyła ideę firmy kart kredytowych na znacznie szersze zastosowanie - praktycznie każdy sprzedawca i dostawca usług na całym świecie. BankAmericard z 1959 roku od Bank of America w Kalifornii jest dziś kartą VISA. W latach 70. narodziła się Master Charge, dzisiejsza MasterCard. Te karty są wydawane przez banki, więc o kartę kredytową można się ubiegać w banku. Użytkownikowi karty przypisuje się wstępnie ustalony limit kredytowy. Po pobraniu opłaty za przedmiot w firmie, firma otrzymuje płatność od banku. Bank pobiera opłatę od firmy, wypłaca firmie kwotę netto, a następnie pobiera ją od konsumenta. Konsument zazwyczaj płaci bankowi roczną opłatę i na koniec każdego miesiąca naliczane są odsetki od niezapłaconego salda. Karty kredytowe mogą być również używane do wypłacania zaliczki gotówkowej z banku. Należy jednak pamiętać, że stopy procentowe zaliczek gotówkowych przy użyciu karty kredytowej mogą być znacznie wyższe niż stopy procentowe za zakupy kartą kredytową. Dlatego funkcja zaliczki gotówkowej powinna być używana mądrze. Podczas gdy kiedyś trudno było uzyskać kredyt, obecnie proces ten jest znacznie łatwiejszy. Banki konkurują o klientów na swoje karty kredytowe i często namawiają studentów college′ów z ograniczonym kapitałem i oferują im karty kredytowe. Telemarketing kart kredytowych jest częsty. Niskie limity kredytowe są obecnie stosunkowo łatwe do uzyskania. Wykazanie się solidną historią płatności i wzrostem zarobków prowadzi następnie do wyższych limitów. Zarządzanie swoim kredytem staje się ważne dla konsumenta. Ważne jest, aby nigdy nie znaleźć się w sytuacji, w której ma się tak wiele kart kredytowych i tak wiele wysokich sald, że rachunki kredytowe nigdy nie zostaną spłacone. Na przykład, jeśli masz kartę kredytową banku z saldem 1000 USD i stopą procentową 18% rocznie lub 1 1?2% miesięcznie (18% podzielone przez 12 miesięcy), odsetki za bieżący miesiąc wyniosą 15 USD (1000 USD x 0,015). Jeśli płatność dokonana na koncie w tym miesiącu wyniesie tylko 25 USD, to pierwsze 15 USD jest przeznaczone na odsetki; pozostałe 10 USD (25-15 USD) zmniejsza kapitał 1000 USD do 990 USD na następny miesiąc. Innymi słowy, więcej zapłacono za odsetki niż za to, co zostało zakupione; sytuacja w następnym miesiącu zmieni się bardzo nieznacznie. Przy takim tempie płatności może minąć kilka lat, zanim saldo spadnie do zera. W międzyczasie, jeśli karta została użyta do większej liczby zakupów, cykl pozostawania w długach trwa. Zarządzanie kartami kredytowymi jest kluczowe dla konsumenta. W rzeczywistości osoba, która ma trudności z obsługą kart kredytowych, może lepiej radzić sobie z kartami debetowymi.
KARTY DEBETOWE
Karta debetowa jest również wydawana przez bank i wygląda jak karta kredytowa, ale działa zupełnie inaczej. Kiedy używa się karty debetowej, wydana kwota jest natychmiast odliczana z konta bankowego użytkownika. To tak, jakby płacić czekiem bez konieczności wypisywania czeku. Nie będzie żadnych niezapłaconych rachunków w przyszłości, ponieważ płatność jest dokonywana w momencie wydatku. Na przykład wiele osób dzisiaj kupuje artykuły spożywcze kartą debetową, przepuszczając ją przez czytnik kart przy kasie sklepu spożywczego. Ponadto ludzie często otrzymują dodatkową gotówkę, płacąc za artykuły spożywcze tą kartą debetową. Przydatna jest wiedza, jak działa konto bankowe z punktu widzenia banku, aby w pełni zrozumieć kartę debetową. Gdy kwota jest dodawana do rachunku bankowego, np. poprzez depozyt, rachunek danej osoby jest "kredytowany"; gdy kwota jest odejmowana od rachunku bankowego, np. poprzez wystawienie czeku, rachunek jest "obciążany". Tak więc termin karta debetowa określa, co dzieje się z rachunkiem bankowym, gdy karta jest używana - natychmiastowe odjęcie. Wspólną funkcją karty debetowej jest karta bankomatowa. ATM to skrót od Automated Teller Machine, z którego tak wiele osób korzysta obecnie. Bankomaty umożliwiają całodobowy bank king. Posiadacz karty może dokonywać wpłat, sprawdzać salda bankowe, przelewać pieniądze z rachunku na rachunek i spłacać pożyczkę. Karta bankomatowa/debetowa może być również używana do uzyskiwania gotówki; wypłacona kwota jest natychmiast odejmowana od rachunku bankowego; jest to zatem inne zastosowanie karty debetowej. Użytkownik karty debetowej musi zachować szczególną ostrożność w prowadzeniu ewidencji wydatków dokonywanych kartą debetową. W przeciwieństwie do czeku, który zwykle jest rejestrowany w momencie płatności, wydatek kartą debetową ma swój zapis w formie paragonu sprzedaży, paragonu z kasy fiskalnej lub zapisu wypłaty lub wpłaty z bankomatu. Wydatki kartą debetową muszą być regularnie i dokładnie odliczane od salda rachunku bankowego przez użytkownika, aby uniknąć utraty kontroli nad saldem rachunku. Odmianą karty debetowej jest karta inteligentna. Podczas gdy karta debetowa wykorzystuje pasek magnetyczny, karta inteligentna zazwyczaj wykorzystuje wbudowany półprzewodnik do przechowywania i utrzymywania informacji. Karty inteligentne mają wiele zastosowań, ale generalnie są używane do przedpłaty wydatków, na przykład przy zakupie karty telefonicznej. Karta telefoniczna zawiera tak wiele dolarów, które zostały zapłacone przed użyciem. W miarę korzystania z karty wartość pieniężna jest odliczana. Inne zastosowania karty inteligentnej to płacenie za przejazdy i zakup benzyny. W obu przypadkach kartę można zbliżyć do czytnika, który zarejestruje opłatę lub zakup benzyny. Plany żywieniowe na uczelniach i karty tranzytowe w systemach metra to inne zastosowania karty inteligentnej. Użycie karty inteligentnej eliminuje konieczność nagłego szukania drobnych, aby zapłacić za przejazd lub wykonać połączenie telefoniczne.
KARTY PODRÓŻNE
Karty podróżne, zwane również kartami podróżnymi i rozrywkowymi, dzielą się na dwie kategorie. Pierwszą z nich są wspomniane wcześniej karty obciążeniowe. Kartę obciążeniową wydaje firma, której głównym produktem jest udzielanie kredytów w celu zakupu usługi. Pierwszymi dwiema firmami w tej dziedzinie były Diners′ Club, Inc. i American Express Company. W obu przypadkach karta jest wydawana na podstawie kontroli kredytowej, a następnie jest używana w wyznaczonych placówkach i u wyznaczonych firm w celu zapłaty za usługi lub produkty. Płatność nie jest dokonywana w sklepie ani w banku, ale raczej w Diners′ Club lub American Express. Karty Diners′ Club są używane głównie w lokalach gastronomicznych. Karty American Express są używane w liniach lotniczych, hotelach i innych czynnościach związanych z podróżami. Nie ma limitów kredytowych dla kart obciążeniowych, ale oczekuje się pełnej płatności w ciągu następnego okresu rozliczeniowego w celu utrzymania historii kredytowej. Jednak American Express wprowadził obecną zmianę w podejściu do karty obciążeniowej, aby umożliwić miesięczne płatności, tak jakby była to karta kredytowa banku. Drugi rodzaj karty podróżnej jest wydawany przez linie lotnicze lub sieci hoteli. Ta karta nie ma bezpośredniego wykorzystania pieniędzy, ale służy jako ulepszony dostawca usług. Tak więc, w tej kategorii znajdują się takie karty jak karty dla często latających, za pomocą których gromadzone są mile lotnicze, które później są wykorzystywane na ulepszone lub bezpłatne loty. Ponadto, posiadaczowi karty świadczone są usługi, takie jak wcześniejsze wejście na pokład samolotu i/lub inne udogodnienia. W tej kategorii znajdują się również karty sieci hotelowych, które gromadzą usługi w hotelach w tej sieci. Ulepszenia pokoi, szybkie zameldowanie i wymeldowanie oraz pomoc w rezerwacji to jedne z zalet tego typu karty. Ponadto, wiele hoteli współpracuje z liniami lotniczymi, więc pieniądze wydane w hotelu mogą skutkować dodatkowymi milami na koncie mil lotniczych. Coraz popularniejszym trendem wśród linii lotniczych jest wydawanie kart MasterCards lub VISA linii lotniczych. Linie lotnicze współpracują z bankiem w celu wydawania standardowych bankowych kart kredytowych z jedną modyfikacją: każdy dolar wydany za pomocą tej karty kredytowej jest zamieniany na mile lotnicze. Tak więc korzyść z bankowej karty kredytowej jest połączona z wartością karty podróżnej linii lotniczych.
PODSUMOWANIE
Od czasów, gdy za to, co zostało kupione, płacono na miejscu, "plastik" zmienił sposób, w jaki konsumenci prowadzą interesy i obsługują osobiste funkcje finansowe. Karty kredytowe umożliwiają zakup teraz z płatnością w przyszłości. Karty debetowe skutkują natychmiastowym potrąceniem z konta bankowego bez wypisywania czeku. Karty inteligentne umożliwiają przedpłatę wydatków, co ułatwia ich opłacenie. Karty podróżne umożliwiają obciążanie wydatków związanych z podróżą oraz gromadzenie usług i świadczeń podróżnych. Wszystkie te elementy są częścią tego, co wydaje się nadchodzić w dość niedalekiej przyszłości - bezpapierowego społeczeństwa finansowego, do którego dostęp zapewniają karty różnego rodzaju. W rzeczywistości możliwe jest, że dzień kart w pewnym momencie się skończy i zostanie znaleziony inny sposób na połączenie jednostki z zakupami potrzebnymi do funkcjonowania. Do tego czasu, biorąc pod uwagę wiele sposobów zakupu, potrzebny jest mądry konsumpcjonizm, aby doprowadzić do właściwego wyboru kart dla danej osoby.
Kontrola zapasów to wdrażanie polityki zarządzania zapasami w sposób zapewniający osiągnięcie celów zarządzania zapasami. Mądra kontrola zapasów jest często kluczowym czynnikiem sukcesu przedsiębiorstw, w których zapasy odgrywają znaczącą rolę. Celem kontroli zapasów jest zapewnienie optymalnego poziomu zapasów, minimalizacja braków magazynowych (tj. wyczerpania zapasów) oraz zapewnienie, że zapasy są przechowywane w bezpiecznym miejscu i zawsze łatwo dostępne dla odpowiednich pracowników. Zasady odnoszą się do poziomu zapasów, który ma być utrzymywany, oraz dostawców, którzy będą je dostarczać. Sposób i czas uzupełniania zapasów, sposób tworzenia, zarządzania i analizowania ewidencji zapasów oraz to, które aspekty zarządzania zapasami będą zlecane na zewnątrz, to również ważne elementy prawidłowego zarządzania zapasami.
NA POCZĄTKU
Przed XVIII wiekiem posiadanie zapasów było uważane za oznakę bogactwa. Generalnie, im większe zapasy, tym większy dobrobyt. Zapasy istniały w postaci magazynów pszenicy, stad bydła i pomieszczeń pełnych ceramiki i innych wyrobów. Zjawisko to miało swoje uzasadnienie. Przedsiębiorcy mieli wówczas wiele obaw. Komunikacja była trudna i zawodna, łatwo ją było przerwać, a jej realizacja często zajmowała dużo czasu. Zapasy były trudne do zdobycia, a podaż niepewna, zmienna i narażona na wiele pułapek. Jakość była niespójna. Często uzyskanie kredytu na zakup nie wchodziło w grę i trzeba było zapłacić za towar przed jego wejściem w posiadanie. Rynki finansowe nie były tak złożone ani tak chętne do zaspokajania potrzeb biznesu jak dzisiaj. Ponadto tempo życia było znacznie wolniejsze. Ponieważ zmiany następowały stopniowo, stosunkowo łatwo było prognozować potrzeby, trendy i pragnienia rynku. Przedsiębiorstwa były w stanie utrzymywać duże ilości towarów bez obawy o nagłe zmiany na rynku, a te zapasy służyły jako bufory w linii zaopatrzenia. Klienci mieli poczucie bezpieczeństwa, wiedząc, że w magazynach jest pod ręką towar, a komfort ten często pomagał minimalizować gromadzenie zapasów. W XVIII i na początku XIX wieku rynki były bardzo wyspecjalizowane. Często na każdy rynek przypadał jeden dostawca w każdej dziedzinie biznesu. Poza podstawowymi artykułami pierwszej potrzeby, istniała znaczna specjalizacja lokalna i specjalizacja regionalna. Na przykład, chociaż w danej społeczności mógł być więcej niż jeden młyn zbożowy, często istniał tylko jeden sklep wielobranżowy. Jeśli klienci byli niezadowoleni z dotychczasowego dostawcy, musieli ponieść pewne niedogodności, aby znaleźć alternatywne źródło zaopatrzenia ze względu na istniejące monopole. Ułatwiało to firmom sprzedaż swoich produktów i pozwalało im utrzymywać duże zapasy, jeśli dysponowały odpowiednim kapitałem. Zarządzanie zapasami było wówczas kwestią priorytetową, podobnie jak obecnie. Zapasy musiały być monitorowane pod kątem dokładności i jakości. Należało je chronić przed czynnikami atmosferycznymi, kradzieżą, zepsuciem i zmianami w lokalnej gospodarce. Przepisy podatkowe mogły mieć ogromny wpływ na poziom zapasów.
POCZĄTEK XXI WIEKU
Współczesny świat biznesu niewiele ma wspólnego z wczorajszym. Komunikacja jest szybka, łatwa, niezawodna i dostępna za pośrednictwem wielu mediów. Dostawy są pewne i regularne w większości środowisk handlowych i produkcyjnych. Przepisy podatkowe są generalnie spójne i niezawodne. Jednak zmiany rynkowe mogą być nagłe i trudne do przewidzenia. Globalna konkurencja istnieje wszędzie, w odniesieniu do niemal wszystkiego. Produkty są dostępne z dowolnego miejsca na świecie, a dostawa w wielu przypadkach jest możliwa w ciągu jednego dnia. Konkurencja sprowadza ceny większości produktów do minimalnych poziomów zysku. Zapasy są zarządzane w celu zapewnienia minimalnego poziomu zapasów i maksymalnego obrotu. W XXI wieku wysokie zapasy są oznaką złego zarządzania lub problemów gospodarczych. Utrzymywanie i utrzymywanie wysokich poziomów zapasów jest kosztowne i marnotrawne. Prawidłowe wykorzystanie przestrzeni jest również kluczowym elementem we współczesnym świecie biznesu, niezależnie od tego, czy jest się sprzedawcą detalicznym, hurtowym, czy producentem. Współcześni sprzedawcy detaliczni i producenci dysponują szeregiem narzędzi i mechanizmów wsparcia, które umożliwiają im zarządzanie zapasami. Technologia jest wykorzystywana w niemal każdym obszarze zarządzania zapasami, aby pomóc kontrolować, monitorować i analizować zapasy. Komputery odgrywają w szczególności ogromną rolę w nowoczesnym zarządzaniu zapasami.
SYSTEMY ZARZĄDZANIA ZAPASAMI
Ciągłe analizy zarówno zarządzania zapasami, jak i procesów produkcyjnych doprowadziły do powstania innowacyjnych systemów zarządzania, takich jak system zapasów just-in-time (JIT) czy model decyzyjny oparty na wielkości zamówienia. System zapasów just-in-time to proces opracowany przez Japończyków na podstawie procesu wynalezionego przez Henr′ego Forda. David Wren (1999) opisuje początki tego procesu:
Henry Ford zdołał obniżyć swoje zapasy o czterdzieści milionów dolarów, zmieniając sposób pozyskiwania materiałów do produkcji samochodów. W ramach procesu zwanego integracją pionową Ford zakupił kopalnie i huty, aby lepiej kontrolować źródła i dostawy materiałów do produkcji samochodów. W ten sposób udało mu się zmniejszyć zapasy i zwiększyć rotację. W latach 50. XX wieku Taiichi Ohno, inżynier mechanik pracujący w Toyota Motorcar Company, udoskonalił ten proces, tworząc to, co dziś znamy jako system zapasów just-in-time.
Zapasy just-in-time zazwyczaj wymagają dominującej strony - dużego partnera, który dysponuje zasobami, aby rozpocząć proces i utrzymać go w porządku i kontroli - który organizuje przepływ i komunikację, tak aby wszystkie strony w procesie dostaw dokładnie wiedziały, ile części jest potrzebnych do ukończenia cyklu i ile czasu potrzeba między cyklami. Posiadając i udostępniając te informacje, firmy są w stanie dostarczyć dokładnie odpowiednią ilość produktu lub zapasów w danym momencie. Wymaga to bliskiej współpracy między wszystkimi zaangażowanymi stronami i znacznie minimalizuje ilość zapasów magazynowych. W modelu decyzyjnym opartym na wielkości zamówienia przeprowadza się analizę w celu określenia optymalnej ilości produktu potrzebnej do zminimalizowania całkowitych kosztów wytwarzania. Innymi słowy, poprzez złożoną analizę kierownictwo stara się określić minimalną ilość produktu potrzebną do wykonania zadania, jednocześnie utrzymując koszt zapasów na jak najniższym poziomie. Analiza ta uwzględnia czas potrzebny na wygenerowanie zamówienia; na przetworzenie, wyprodukowanie, zorganizowanie i wysyłkę każdego produktu; na przyjęcie, inwentaryzację, przechowywanie i zużycie każdego produktu; oraz na przetworzenie dokumentów po otrzymaniu, aż do ostatecznego procesu płatności. Jest to proces bardziej niezależny niż zarządzanie zapasami just-in-time; umożliwiając udział wielu dostawców, zapewnia konkurencyjność. Wiele firm stosuje obecnie połączenie obu procesów, aby zachować niezależność, a jednocześnie bliskie relacje z dostawcami. Na przykład detaliści ściśle współpracują z dostawcami, aby utrzymać najniższe możliwe zapasy, a jednocześnie dysponować wystarczającą ilością produktów, aby zaspokoić popyt klientów. Często firmy mają dostęp do informacji o poziomach zapasów swoich partnerów, co pozwala kierownictwu na dalszą analizę zapasów w celu upewnienia się, że każda z nich posiada odpowiednią ilość zapasów, aby zaspokoić potrzeby rynku i utrzymać minimalny poziom.
PROCES INWENTARYZACJI
Zapasy są zazwyczaj zamawiane komputerowo, za pośrednictwem modemu, bezpośrednio od dostawcy lub producenta. Osoby zamawiające produkt posiadają historię sprzedaży lub zużycia zapasów, co pozwala im prawidłowo prognozować krótkoterminowe potrzeby, a także wiedzieć, które produkty nie są sprzedawane lub zużywane. Komputer pomaga kierownictwu w kontroli, współpracując z działem sprzedaży lub produkcji. Za każdym razem, gdy następuje sprzedaż lub zużywane są jednostki produktu w procesie produkcyjnym, produkt jest usuwany z zapasów i dodawany do pliku historii, który można przeglądać ręcznie lub automatycznie, w zależności od tego, jak kierownictwo chce zorganizować ten dział. Dostawca i nabywca często utrzymują bliskie relacje robocze; nabywca informuje dostawcę o zmianach i rozwoju produktów w branży, aby utrzymać odpowiedni poziom zapasów, a dostawca często dedykuje sprzęt i personel do pomocy nabywcy. Chociaż małe firmy mogą ściśle współpracować z większymi dostawcami, nadal bardzo ważne jest, aby te małe firmy prawidłowo zarządzały swoimi zapasami. Towary muszą być przechowywane w odpowiednim magazynie, który spełnia potrzeby produktów; Niektóre produkty wymagają na przykład chłodzenia, podczas gdy inne wymagają ciepłego i suchego środowiska. Przestrzeń jest zazwyczaj kluczowym czynnikiem w tym stale kurczącym się świecie: ważne jest, aby mieć wystarczająco dużo miejsca, aby zaspokoić potrzeby klientów i zapobiec przepełnieniu magazynu. Zapasy muszą być monitorowane, aby zapobiec kradzieżom i nieścisłościom. Inwentaryzacja fizyczna - fizyczne sprawdzenie każdego artykułu z listą dostępnych pozycji - to rutyna, którą należy wykonywać kilka razy w roku. Co najmniej, inwentaryzacje powinny być sprawdzane co roku, tuż przed końcem roku obrotowego, i porównywane z "księgą" lub ilościami wymienionymi jako dostępne w komputerze lub ręcznie. Następnie można wprowadzić korekty w celu skorygowania wszelkich nieścisłości. Inwentaryzacja częściej niż raz w roku, a tym samym analiza zapasów w krótszych okresach, często prowadzi do wykrycia błędów księgowych lub przetwarzania. Służy również jako sygnał dla pracowników, że kierownictwo uważnie monitoruje zapasy, często zniechęcając do kradzieży. Systemy alarmowe i monitoring wizyjny to tylko niektóre ze sposobów monitorowania zapasów. Upewnienie się, że każda osoba uprawniona do dostępu do systemów zarządzania zapasami posiada i używa własnego hasła, ma kluczowe znaczenie dla skutecznej kontroli zapasów. Dzięki redundantnym systemom kierownictwo może również porównywać te dwa systemy, aby zapewnić równowagę. Jeśli zaburzą one równowagę, kierownictwo zostanie o tym powiadomione.
KONIEC
Utrzymanie czystego, uporządkowanego, prawidłowo oświetlonego i bezpiecznego magazynu lub składu to klucz do utrzymania kontroli nad zapasami. Dodanie technologii komputerowej wspomagającej zarządzanie i administrację tworzy system, który jest aktualny i konkurencyjny. Odpowiednie przeszkolenie pracowników w zakresie nowoczesnych technik i standardów skutkuje efektywnym i rentownym systemem.
Filozofia biznesu przeszła trzy główne zmiany w historii handlu w Stanach Zjednoczonych. Przeszła od orientacji produkcyjnej, przez orientację sprzedażową, do obecnej orientacji konsumenckiej. Każda z tych filozofii odzwierciedlała ówczesną sytuację gospodarczą. Od początków istnienia Stanów Zjednoczonych do końca lat dwudziestych XX wieku przedsiębiorstwa miały ograniczone moce produkcyjne i stały popyt na swoje produkty. W tych okolicznościach nieuniknione było, że dominującą filozofią będzie "produkuj jak najwięcej, a się sprzeda". Cele biznesowe oparte na tym przekonaniu naturalnie koncentrowały się na produkcji. Działania marketingowe ograniczały się do przyjmowania zamówień i dystrybucji produktów. Wraz z wprowadzeniem produkcji masowej pod koniec XIX wieku luka między produkcją a popytem na towary i usługi zaczęła się zmniejszać. Do lat trzydziestych XX wieku moce produkcyjne dorównały popytowi, a w wielu obszarach go przewyższyły. Aby utrzymać lub odzyskać poziom produkcji i sprzedaży, przedsiębiorstwa przyjęły filozofię zorientowaną na sprzedaż. Filozofia ta głosiła, że "jeśli wystarczająco dużo reklamujesz, prowadzisz działania promocyjne i sprzedajesz bezpośrednio, możesz przekonać rynek, aby kupił całą twoją produkcję". Początkowo firmy wykorzystywały pojawienie się radia jako nośnika reklamy i zatrudniały duże siły sprzedaży, aby dotrzeć do potencjalnych klientów na nowych rynkach. W latach 40. XX wieku wprowadzenie telewizji umożliwiło im dalsze rozszerzenie działań sprzedażowych. Po zakończeniu II wojny światowej dwie siły połączyły się, aby wywołać eksplozję popytu na towary i usługi. Jedną z nich był stłumiony popyt na produkty wynikający z niedoborów wojennych. Drugą był ogromny, dodatkowy popyt generowany przez powrót żołnierzy, którzy zakładali nowe domy i rodziny. Wybuch wydatków spowodowany tymi siłami był podtrzymywany przez wyż demograficzny i następujący po nim wzrost standardu życia. Jednocześnie wojenne moce produkcyjne i rozwój technologiczny zostały przeniesione na zastosowania cywilne, produkcja nadal rosła, a nowe przedsiębiorstwa powstawały, aby wykorzystać te możliwości. Rezultatem całej tej aktywności gospodarczej była silna konkurencja o dolary konsumpcyjne. Firmy szybko zdały sobie sprawę, że jeśli chcą zarobić na tych pieniądzach, muszą stać się bardziej zorientowane na klienta. Ta zmiana filozofii stała się znana jako koncepcja marketingowa. Chociaż filozofia ta kształtowała się przez prawie siedem lat, nie została sformułowana aż do momentu, gdy pojawiła się w raporcie rocznym General Electric z 1952 roku. Jedna z powszechnie używanych definicji, wywodząca się z opisu raportu, to "ogólnonarodowa orientacja na klienta, której celem jest osiągnięcie długoterminowej rentowności". Jak sama definicja wskazuje, koncepcja marketingowa składa się z trzech części. Są to:
1. Koncentracja na kliencie: Koncepcja marketingu opiera się na założeniu, że punktem wyjścia decyzji biznesowych są potrzeby i pragnienia klienta. Te potrzeby i pragnienia są starannie badane i dogłębnie analizowane. Następnie identyfikuje się i/lub rozwija towary i usługi, aby je zaspokoić.
2. Cel zysku: Koncepcja marketingu zakłada, że towary i usługi udostępniane przez firmę muszą być produkowane i sprzedawane z zyskiem. Cel zysku jest integralną częścią przetrwania i rozwoju firmy. Bez niego firma nie byłaby w stanie zaspokoić potrzeb i pragnień klientów.
3. Całościowy wysiłek firmy: Skuteczne wdrożenie koncepcji marketingowej wymaga zaangażowania pracowników ze wszystkich działów na wszystkich szczeblach firmy. Należy zapewnić szkolenia i zmotywować pracowników do osiągnięcia wspólnych celów, jakimi są maksymalna satysfakcja klienta i rentowność.
Firmy, które wdrożyły koncepcję marketingu, zauważyły jej silny wpływ na sprzedaż. Odkryły również, że pod wieloma względami zmieniła ona sposób ich działania. Większość zmian w praktyce zarządzania była związana ze zmianami w myśleniu, które są nieodłączną częścią koncepcji marketingu. Należą do nich podejmowanie decyzji na podstawie potrzeb i pragnień klientów, a nie harmonogramów produkcji i celów sprzedażowych, traktowanie zysku jako celu, a nie wyniku księgowego, oraz aktywne zainteresowanie wszystkimi aspektami działalności. Wdrożenie koncepcji marketingu w życie zmusiło również menedżerów do przemyślenia swoich działań i powodów ich podjęcia. Zmiany w działaniach marketingowych, które zaszły w ramach tej koncepcji, obejmują zarówno strategie marketingowe, jak i funkcje marketingowe. Badania rynku stały się ważnym narzędziem. Wykorzystano dane zebrane w celu określenia potrzeb i pragnień klientów oraz uzyskania informacji zwrotnej na temat wyników firmy. Szczególną uwagę zwrócono na jakość produktów oraz ukierunkowanie usług i towarów na preferencje klientów. Interes klienta został uznany za priorytet we wszystkich działaniach marketingowych. Na przykład w sprzedaży większy nacisk położono na pomoc klientowi niż na sprzedaż. Ponadto poszukiwanie innowacyjnych sposobów dotarcia do klienta i obsługi klienta stało się nieustającym przedsięwzięciem. Zmiany w produkcji spowodowane wykorzystaniem koncepcji marketingowej, takie jak ścisła kontrola zapasów, koncentrowały się na wydajności. Zmiany w działaniu, takie jak wydłużone godziny pracy i natychmiastowa dostawa, koncentrowały się na wygodnej dostępności produktów. Dodatkowe zmiany w praktyce biznesowej miały na celu kontrolę kosztów, aby zapewnić klientom maksymalną wartość za cenę, którą płacą. W latach 90. XX wieku podejmowano próby udoskonalenia koncepcji marketingowej poprzez jej rozszerzenie i poszerzenie. Wysiłki mające na celu rozszerzenie koncepcji obejmowały połączenie jej z kompleksowym zarządzaniem jakością (TQM). Celem było podniesienie satysfakcji klienta na wyższy poziom i zaspokojenie jego precyzyjnych potrzeb. Inicjatywa ta odniosła ograniczony sukces. Wysiłki mające na celu poszerzenie koncepcji marketingowej rozszerzyły ją o kwestie społeczne. Założeniem było, że poprzez zajęcie się szerszymi problemami klientów (środowisko, AIDS itp.), wraz z podstawowymi potrzebami i pragnieniami, wzrośnie również satysfakcja klienta - i rentowność. Niektóre firmy odniosły sukces dzięki wdrożeniu tej szerszej koncepcji.
Jednym z opłakanych faktów życia jest to, że nikt nie może mieć wszystkiego, czego pragnie. Wynika to po części z ograniczonych zasobów. Niezależnie od tego, czy jest to nastolatek pracujący na pół etatu, czy bogaty biznesmen, nikt nie posiada wszystkich pieniędzy świata. Co więcej, doba ma tylko 24 godziny, a tydzień 7 dni. Czas i pieniądze to tylko dwa z wielu zasobów, których brakuje w codziennym życiu. Niestety, z powodu tych ograniczeń, jednostki muszą dokonywać wyborów w zakresie wykorzystania ograniczonych zasobów. Można wykorzystać swój czas na pracę, zabawę, sen lub inne możliwości. Można też wybrać kombinację możliwych aktywności. Ludzie nie mogą spędzać 24 godzin dziennie pracując, 24 godziny dziennie bawiąc się i 24 godziny dziennie śpiąc. Mogą zdecydować się wydać swoją pensję na ładny dom, drogie wakacje lub jacht, ale prawdopodobnie nie stać ich na wszystkie trzy rzeczy. Muszą dokonywać wyborów, mając do dyspozycji ograniczone zasoby finansowe. Dokonując wyborów dotyczących wykorzystania ograniczonych zasobów, rozsądnie jest ocenić koszty i korzyści wszystkich możliwych opcji. Załóżmy na przykład, że ktoś próbuje zdecydować, jak spędzić kolejne kilka lat swojego życia. Zawęził on/ona opcje do dwóch: (1) pracy na pełen etat lub (2) podjęcia studiów stacjonarnych. Nauka w szkole będzie kosztować około 12 000 dolarów rocznie na czesne, książki oraz zakwaterowanie i wyżywienie na lokalnym uniwersytecie stanowym przez następne cztery lata. Dodatkowo zrezygnuje z pensji z pracy na pełen etat, która wynosi 24 000 dolarów rocznie. To daje całkowity koszt nauki w szkole 36 000 dolarów rocznie. W zamian otrzymuje przyjemność, interakcje społeczne i osobistą satysfakcję związaną z zdobywaniem wykształcenia, a także oczekiwanie wzrostu wynagrodzenia przez resztę życia zawodowego. Pytanie, na które należy odpowiedzieć, brzmi: "czy korzyści płynące z edukacji przewyższają koszty?". Jeśli tak, należy wybrać szkołę. Jeśli koszty przewyższają korzyści, należy utrzymać pracę na pełen etat. "Koszt alternatywny" to wartość drugiej najlepszej alternatywy. Innymi słowy, jest to wartość opcji, która nie została wybrana. W tym przykładzie, gdyby dana osoba zdecydowała się zachować pracę, koszt alternatywny stanowiłby korzyść płynącą z pójścia do szkoły, w tym niematerialne korzyści w postaci przyjemności, interakcji społecznych i spełnienia osobistego, a także namacalną korzyść w postaci wyższego wynagrodzenia w przyszłości w pozostałej części życia zawodowego. Gdyby dana osoba zdecydowała się na naukę, koszt alternatywny wynosiłby 24 000 dolarów rocznie, które można by zarobić na pracy na pełen etat. Jednym ze sposobów wizualizacji tej koncepcji jest użycie krzywej możliwości produkcyjnych - wykresu, który przedstawia kompromis między dwoma możliwymi wyborami lub ich kombinacją. Rozważmy bardzo prostą możliwą gospodarkę danego kraju. Kraj ten może produkować dwa dobra: broń palną (tj. obronność) lub masło (tj. dobra konsumpcyjne). Jeśli dany kraj historycznie wykorzystywał wszystkie swoje zasoby do produkcji broni palnej, to może rozważyć przeznaczenie części swoich zasobów na produkcję masła. Początkowo zasoby, które są najmniej efektywne w produkcji broni palnej (np. grunty rolne), zostaną przeniesione na produkcję masła. W ten sposób kraj nie traci wielu broni palnej, aby wyprodukować stosunkowo dużą ilość masła. Jednak wraz z przenoszeniem przez kraj coraz większej ilości zasobów na produkcję masła ich wydajność maleje. W skrajnym przypadku, gdy kraj rezygnuje z ostatniej produkcji broni palnej, zasoby te są bardzo przydatne do produkcji broni, ale niezbyt przydatne do produkcji masła (np. zaawansowany technologicznie zakład produkcji uzbrojenia). Rysunek 1 ilustruje tę sytuację graficznie, pokazując przykład krzywej możliwości produkcyjnych. Na rysunku 1 wszystkie obiekty na linii krzywej lub w szarym obszarze to możliwe kombinacje produkcyjne broni palnej i masła w gospodarce prostej. Każda kombinacja na linii wykorzystuje wszystkie dostępne zasoby, podczas gdy każda kombinacja w szarym obszarze jest uważana za nieefektywną, ponieważ nie wykorzystuje wszystkich dostępnych zasobów. Każda kombinacja w białym obszarze jest niemożliwa do osiągnięcia, biorąc pod uwagę ograniczenia zasobów kraju. Idea, że kraj początkowo przesunie swoje najmniej produktywne zasoby do produkcji innego dobra, jest znana jako prawo rosnących kosztów alternatywnych. Tak więc, jeśli produkcja początkowej tony masła kosztuje pięćset dział, to następna tona masła, która wykorzystuje zasoby, które są lepsze w produkcji dział, będzie kosztować więcej dział. Następna tona masła będzie kosztować jeszcze więcej dział i tak dalej. Jest to przedstawione na Rysunku 1 przez zmieniające się nachylenie krzywej możliwości produkcyjnych.
PODSUMOWANIE
Z uwagi na ograniczone zasoby konieczne jest dokonywanie wyborów. Oceniając wybory w tym procesie decyzyjnym, dąży się do wyboru najlepszej opcji, czyli takiej, która oferuje największe korzyści w stosunku do poniesionych kosztów i jest możliwa do zrealizowania przy danych ograniczeniach. Dotyczy to zarówno osób fizycznych, firm, jak i krajów, choć decyzje podejmowane przez poszczególne podmioty znacznie się różnią. Druga najlepsza opcja nazywana jest kosztem alternatywnym i to z niej rezygnuje się przy podejmowaniu decyzji.
Kształcenie zawodowe to sformalizowane podejście do specjalistycznego szkolenia w szkole zawodowej, w ramach którego uczestnicy zdobywają wiedzę merytoryczną i uczą się stosować techniki. Chociaż uczestnik, uczęszczając do szkoły zawodowej, ma obowiązek przyswoić sobie wiedzę merytoryczną, takie kształcenie pomaga mu również nabyć kompetencje niezbędne do prawidłowego wykonywania zawodu i zachowania. Do typowych celów kształcenia zawodowego należą: włączenie wiedzy i wartości podstawowych dla danej dyscypliny zawodowej; zrozumienie kluczowych pojęć, zasad i technik stosowanych w praktyce; osiągnięcie poziomu kompetencji niezbędnego do odpowiedzialnego rozpoczęcia praktyki zawodowej; oraz przyjęcie odpowiedzialności za ciągły rozwój kompetencji. Celem kształcenia zawodowego jest wykształcenie odpowiedzialnych profesjonalistów, a następnie zapewnienie ich ciągłego rozwoju kompetencji w zawodzie poprzez pomoc w rozpoznaniu i zrozumieniu znaczenia pogłębiania wiedzy zawodowej i podnoszenia standardów praktyki. Polega ono na przełożeniu wiedzy na praktykę i ma na celu zapobieganie dezaktualizacji zawodów i specjalistów.
ROLA KSZTAŁCENIA ZAWODOWEGO
Istotą profesjonalizmu jest świadczenie usług w odpowiedzi na potrzeby społeczne. Kształcenie zawodowe jest odpowiedzią na zapotrzebowanie społeczeństwa na specjalistyczną pomoc udzielaną przez kompetentne osoby. Rozwój zawodu jest funkcją specyficznych potrzeb, a rola profesjonalisty zmienia się wraz ze zmianami zachodzącymi w społeczeństwie. Kształcenie zawodowe odpowiada zarówno na zmieniające się wymagania, jak i stanowi impuls do zmian w samej dziedzinie, równoważąc perspektywę przyszłości z realiami współczesności. Kształcenie zawodowe ma zatem charakter zarówno reaktywny, jak i inicjujący. Większość rozwiązywania problemów w miejscu pracy ma charakter reaktywny, ponieważ konieczne jest podejmowanie decyzji, a na badania lub konsultacje z rówieśnikami pozostaje niewiele czasu. Specjalistyczna wiedza i umiejętności były niegdyś przekazywane z jednego profesjonalisty na drugiego poprzez praktyki, opierały się na doświadczeniu i pochodziły ze źródeł pozaakademickich. Ta metoda stała się niewystarczająca do kształcenia kompetentnych specjalistów. Szkoły powstały w celu zapewnienia zasobów finansowych i kadrowych korzystnych dla społeczeństwa oraz kształcenia kolejnych pokoleń. Program nauczania ma na celu rozwijanie dyscypliny i samoświadomości u profesjonalistów. Szkoły te są odpowiedzialne za planowanie i dostarczanie pełnego zakresu usług edukacyjnych, które umożliwiają uczenie się oparte na wiedzy poprzez integrację nauczania, badań i technologii.
UCZENIE SIĘ CIĄGŁE I PRZEZ CAŁE ŻYCIE
Kształcenie zawodowe decyduje o jakości świadczonych usług. Wraz ze zmianami zarówno w praktyce, jak i teorii, wiedza rośnie, a początkowy poziom kompetencji staje się niewystarczający do efektywnego działania. Sama współpraca lub ścisła współpraca z rówieśnikami nie wystarczy, aby znaleźć sposoby na rozwijanie nowych praktyk i nowych talentów. Jednym ze sposobów doskonalenia praktyk i talentów są formalne możliwości uczenia się, które pozwalają na refleksję nad zdobytą wiedzą z rówieśnikami. Żaden zawód nie jest w stanie skutecznie radzić sobie z pilnymi zmianami standardów i etyki zawodowej bez omawiania zmian i modyfikacji zadań. Podejmowanie dodatkowych działań w celu zaspokojenia potrzeby zdobywania dodatkowych informacji nazywa się uczeniem się przez całe życie. Uczenie się przez całe życie to ciągły, płynny proces kształcenia specjalistów. Uczenie się odbywa się poprzez działania podejmowane przez pracowników we współpracy ze szkołami zawodowymi. Opiera się na aktualnej wiedzy i zrozumieniu oraz jest dostosowane do zainteresowań i celów. Ciągły rozwój prowadzi do wzmocnienia praktyk i rozwoju specjalistów, którzy biorą na siebie odpowiedzialność za utrzymanie wysokich standardów. Wielu specjalistów jest zmotywowanych do nauki nowych kompetencji wymaganych w pracy, ponieważ pozwala im to na zdobycie wyższego poziomu umiejętności i zaangażowania. Szkolenia i rozwój kształtują pewnych siebie, doświadczonych specjalistów, którzy są zmotywowani do nauki i zaangażowani w wspieranie rozwoju osobistego.
INTEGRACJA EDUKACJI TECHNOLOGICZNEJ
Społeczeństwo doświadczyło gwałtownego wzrostu wiedzy i umiejętności technologicznych. Zmiany w obowiązkach zawodowych i nowe technologie wymagają specjalizacji zarówno w zawodzie, jak i w samej technologii. Internet zmienił charakter edukacji zawodowej, oferując alternatywę dla tradycyjnego nauczania w klasie, która zapewnia te same usługi, co tradycyjne środowisko szkolne. Internet jest atutem w rozwoju zawodowym ze względu na różnorodność zasobów i pomysłów, jakie oferuje. Ponadto jest łatwo dostępny dla większości osób i przyjazny dla użytkownika. Internet oferuje różnorodne internetowe opcje nauczania, w tym pocztę elektroniczną, listy dyskusyjne, listy mailingowe, grupy dyskusyjne, strony internetowe i systemy zarządzania kursami. Poczta elektroniczna to proste i łatwe w użyciu narzędzie komunikacyjne służące do przesyłania listów i notatek. Zazwyczaj opiera się wyłącznie na tekście i stanowi szybki sposób na ułatwienie interakcji i dyskusji w klasie. Umożliwia przesyłanie informacji, takich jak zadania i ogłoszenia, między nauczycielem a uczniem. Listy dyskusyjne, listy mailingowe i grupy dyskusyjne są proste, wygodne i elastyczne w użyciu. Listserv to grupa dyskusyjna o określonych zainteresowaniach, która rozsyła wiadomości do wielu użytkowników na liście mailingowej. Użytkownicy publikują wiadomości, a oprogramowanie listserva wysyła je do członków. Listy mailingowe to dyskusje, które pozwalają użytkownikom wysyłać wiadomości do grup osób tak łatwo, jak do pojedynczej osoby. Grupy dyskusyjne to grupy dyskusyjne zorganizowane tematycznie. Wiadomości nie są wysyłane na konto e-mail, ale publikowane w centralnej lokalizacji w sieci. Gdy użytkownicy są gotowi, wybierają interesujące ich tematy i wiadomości, które chcą przeczytać. Strony internetowe są również skutecznym narzędziem wymiany myśli w internecie. Umożliwiają one uczestnikom zapoznawanie się z materiałami dydaktycznymi w celu osiągnięcia efektów uczenia się oraz udział w dyskusjach elektronicznych w dogodnym dla nich czasie, we własnym tempie, w dowolnym czasie i z dowolnego miejsca. Systemy zarządzania kursami to komercyjne oprogramowanie przeznaczone do zarządzania klasą, zarządzaniem nauczaniem i oceną wyników. Umożliwiają one dostęp online, bezpośrednio lub za pośrednictwem linków do stron internetowych, do treści kursu. Systemy te monitorują postępy uczestników poprzez zarządzanie ich plikami podczas przeglądania treści kursu. Kursy doskonalenia zawodowego w Internecie oferują nowe wyzwania i nowe możliwości dla edukacji zawodowej. Internet zaspokaja większość dzisiejszych potrzeb w zakresie rozwoju zawodowego. Wciąż rozwijają się inne innowacyjne możliwości, które oferują więcej usług wspomagających badania i dostarczających nam informacji na temat szczególnie interesujących tematów. Dzięki wykorzystaniu tej technologii nauczanie wykracza poza fizyczne ograniczenia tradycyjnych sal lekcyjnych. Technologia internetowa oferuje nieograniczoną bazę nowej wiedzy, dostępną za niewielkie pieniądze lub bezpłatnie. Szczególną uwagę poświęca się rozwojowi zawodowemu na wszystkich poziomach. Ta nowa wizja rozwoju zawodowego wymaga nowego spojrzenia na przygotowanie, które obejmuje umiejętność powiązania technologii z konkretnymi zawodami i dziedzinami pokrewnymi. Niezbędne jest, aby programy miały dostęp do technologii i integrowały ją, aby ułatwić uczestnikom naukę. Ten rodzaj współpracy nadal buduje nowy system edukacyjny oparty na tradycyjnej koncepcji uczenia się przez całe życie.
STRESZCZENIE
Kształcenie zawodowe kształci nowe pokolenie profesjonalistów, poszerzając granice wiedzy i służąc społeczeństwu. Coraz częściej kształcenie zawodowe odgrywa znaczącą rolę w administrowaniu nowymi programami w ramach kształcenia ustawicznego i nowych struktur. Szybko zmieniające się społeczeństwo, w którym żyją profesjonaliści, wymaga od nich dążenia do maksymalizacji wydajności pracy. Nie ma jednego modelu, który stanowiłby prototyp programu. Istnieje wiele programów, które odpowiadają zróżnicowanym potrzebom współczesnych profesjonalistów, którzy podejmują się różnych ról i ponoszą coraz większą odpowiedzialność. Kształcenie zawodowe to proces trwający całe życie i stale się rozwija, dostosowując programy tak, aby pomóc w kształtowaniu kompetentnych pracowników na miarę XXI wieku.
Kalkulacja kosztów to identyfikacja wartości zasobów wykorzystanych do wytworzenia określonych dóbr lub usług. Jednym z celów kalkulacji kosztów jest określenie, jakie zasoby były potrzebne do dostarczenia dóbr lub usług. Drugim celem jest dostarczenie wskazówek dotyczących wykorzystania zasobów poprzez zastosowanie budżetów, które jasno określają odpowiedzialność menedżerów. Ten drugi cel zostanie omówiony w dalszej części.
METODY KOSZTOWANIA OKREŚLONE W BUDŻETACH
Wartości budżetowe mogą być oparte na kosztach rzeczywistych, budżetowanych lub standardowych. Kategorie te nie wykluczają się wzajemnie. Na przykład, chociaż koszt standardowy jest kosztem budżetowanym, koszt budżetowany nie zawsze jest kosztem standardowym. Koszt rzeczywisty może, ale nie musi, być kosztem budżetowanym. Budżety oparte na kosztach rzeczywistych odzwierciedlają wydatki przewidywane dla danego poziomu wykorzystania zasobów. Koszty budżetowane są zazwyczaj określane jako najlepsze oszacowanie tego, co powinno być dozwolone w przyszłej działalności. Aby ustalić koszty budżetowe, często bierze się pod uwagę rzeczywiste koszty z poprzedniego roku, informacje od przełożonych na temat możliwości bardziej efektywnego wykorzystania zasobów oraz subiektywne oceny dotyczące konieczności ich oszczędzania. Koszty standardowe to obiektywnie określone koszty, które odzwierciedlają efektywne i wydajne wykorzystanie zasobów.
KOSZTY STANDARDOWE
Koszty standardowe to koszty ustalane poprzez identyfikację obiektywnego związku między określonymi nakładami a oczekiwanymi efektami. Dlatego koszty standardowe są zazwyczaj powiązane ze starannie analizowanymi zjawiskami zarówno w laboratorium, jak i w miejscu pracy. Na przykład w fabryce firmy produkującej wysokiej jakości bawełniane koszule męskie, stosuje się koszty standardowe materiałów i robocizny. Aby ustalić standardowe zużycie materiału na pojedynczą koszulę, w laboratorium analizuje się możliwości cięcia, gdzie można określić, ile materiału należy zużyć, aby koszula została skrojona zgodnie ze specyfikacją. Na tym etapie nie koncentruje się na tym, ile minut potrzebuje doświadczony krawiec na precyzyjne cięcie materiału, aby zminimalizować jego zużycie. Zamiast tego eksperymentuje się z metodami cięcia i czasem potrzebnym na każdą z rozważanych metod. Eksperymenty trwają do momentu ustalenia najbardziej ekonomicznej kombinacji zużycia materiału i czasu cięcia. Ta kombinacja prawdopodobnie zostanie zmodyfikowana, aby uwzględnić niedoskonałe warunki w miejscu pracy. Celem personelu odpowiedzialnego za ustalanie kosztów standardowych jest zapewnienie realistycznych standardów. Pracownicy powinni być zmotywowani do osiągania wyników zgodnych z określonymi standardami. Jeśli standardy są nieracjonalne - zbyt rygorystyczne lub zbyt luźne - oczekiwany poziom dyscypliny jest poważnie podważany. Jeśli standardów nie da się osiągnąć przy rozsądnym wysiłku, pracownicy mogą się zniechęcić i stać się tak obojętni, że jakość ich pracy znacznie się pogorszy. Jeśli standardy są zbyt łatwe do osiągnięcia, może dojść do niepotrzebnego marnotrawstwa zasobów. Rachunek kosztów standardowych ma zastosowanie w każdym rodzaju działalności gospodarczej. Proces opisany pokrótce powyżej można zastosować na przykład do przetwarzania dokumentów w firmie ubezpieczeniowej lub w firmie świadczącej usługi finansowe.
MONITOROWANIE KOSZTÓW STANDARDOWYCH
Koszty standardowe są monitorowane jako podstawa do określenia stopnia realizacji oczekiwań. Zazwyczaj firmy planują raportowanie cotygodniowe lub miesięczne. Powszechnie stosowaną metodą jest określenie różnicy między budżetem a faktycznymi wydatkami na osiągnięty wynik. Różnica ta nazywana jest wariancją. Załóżmy na przykład, że w fabryce produkującej koszule, w ciągu miesiąca wycięto 12 000 koszul, co wymagało 30 500 jardów materiału. Standardowe zużycie wynosiło 2,5 jarda na koszulkę, co daje łącznie 30 000 jardów. Nadmierne zużycie wskazywałoby na niekorzystną różnicę w zużyciu wynoszącą 500 jardów. Różnice są zazwyczaj prezentowane jako jednostki standardowego kosztu tkaniny. Zatem, jeśli standardowy koszt tkaniny wynosił 4,75 USD, różnica byłaby raportowana jako 500 jednostek 4,75 USD 2375 USD. Należy ustalić zasady dotyczące poziomu rozbieżności, który ma być badany. Dopuszczalne są pewne odchylenia od oczekiwań, a jeśli standardy są realistyczne, znaczna część rozbieżności jest eliminowana w ciągu roku - tzn. nieznaczne korzystne odchylenia niwelują nieznaczne niekorzystne odchylenia. Badane są rozbieżności uznane za istotne. Dokładna obserwacja i rozmowa z pracownikami zaangażowanymi w produkcję produktu, który doprowadził do rozbieżności, pomogą w ocenie okoliczności, które wydają się być przyczyną. Rozważne rozważenie działań, które należy podjąć w przyszłości, może doprowadzić do wyeliminowania istotnych odchyleń. Podczas obiektywnego przeglądu obserwacji i dyskusji mogą pojawić się pytania dotyczące adekwatności ustanowionych standardów. Konieczne może być ponowne rozważenie wcześniejszych analiz, które stanowiły podstawę standardów stosowanych w budżecie, a następnie stosowanych przez personel operacyjny. Aby organizacja mogła uzyskać optymalną wartość z kalkulacji kosztów standardowych, wszyscy zaangażowani pracownicy muszą rozumieć motywację do takiej kalkulacji i rozumieć ocenę, która zostanie przeprowadzona. Narzucanie kosztów standardowych bez szczerej i uczciwej komunikacji podważy w dużej mierze postrzeganą wartość takiej kalkulacji.
POWIĄZANE ROZWOJE
Rozwój taki jak ciągłe doskonalenie, koszty docelowe i produkcja typu push-through w pewnym stopniu zmieniły użyteczność tradycyjnego standardowego kalkulowania kosztów. Jednak każdy z tych postępów został wdrożony w niektórych organizacjach, uwzględniając aspekty standardowego kalkulowania kosztów. Na przykład, ciągłe doskonalenie, w ujęciu ogólnym, wprowadza przegląd zasobów wykorzystanych w tym roku, aby określić, gdzie w nadchodzącym roku może zostać wykorzystane mniej zasobów. Zadanie identyfikacji mniejszej ilości zasobów jest zadaniem ustalania standardów. Koszty docelowe oblicza się, zaczynając od kosztu, jaki konsumenci są skłonni zapłacić za gotowy produkt lub usługę, a następnie analizując koszt wstecz. Proces ten może również obejmować podstawową koncepcję standardowego kalkulowania kosztów. Produkcja typu push-through, w której grupy odpowiadają za szereg procesów, może skorzystać z kosztu standardowego jako podstawy monitorowania wykorzystania zasobów. Jedną z głównych barier dla wdrożenia standardowego kalkulowania kosztów w XXI wieku jest szybkość zmian w sposobie wykonywania zadań i dostępności alternatywnych materiałów. Częste zmiany prowadzą do braku czasu na dokładną analizę nakładów i efektów. Decyzje podejmowane są wyłącznie na podstawie osądów i obserwacji. Takie decyzje mogą być zbliżone do tych podejmowanych systematycznie - jednak nie muszą. Użyteczność informacji uzyskanych z analizy wariancji związanych z kosztami standardowymi została zakwestionowana. Niektórzy krytycy twierdzą, że w tej tradycyjnej analizie niewystarczająca jest uwaga poświęcona jakości. Inni proponują uwzględnienie kwestii jakości w ocenie kosztów standardowych.