Näkyvyys käytössä oleviin laitteisiin Microsoft Endpoint Managerin avulla

Työntekijät ovat yhä tottuneempia työskentelemään aika- ja paikkariippumattomasti, enenevissä määrin myös laiteriippumattomasti. Entistä enemmän työtehtäviä hoidetaan omilla yksityiskäyttöön hankituilla tietokoneilla sekä tableteilla. Näin ollen tietohallinnossa on entistä vaikeampaa olla selvillä, mitä laitteita työntekijöillä on käytössään ja miten suojata luottamuksellisen datan käyttö muuttuvassa ympäristössä.

Paikka- ja laiteriippumattoman työnteon sekä tietohallinnon näkyvyyden laitteisiin yhteensovittaminen nousee näin entistä tärkeämmäksi. Microsoft Endpoint Manager (MEM), aiemmalta nimeltään Intune, mahdollistaa yritykselle näkymän olemassa olevaan laitekantaan – sekä laitteiden hyvinvointiin.

Laitteet IT:n hallinnassa

Microsoft Endpoint Manager tarjoaa laitteiden hallintaan varsin monipuoliset työkalut. Kuhunkin hallinnassa olevaan laitteeseen pystytään ajamaan jokseenkin voimakkaita komentoja MEM:n kautta, kuten esimerkiksi laitteen nollaus, lukitseminen sekä pääsykoodin vaihto.

Käyttöjärjestelmästä riippuen myös laitteen paikannus ja sen asettaminen ”kadonnut”-tilaan ovat mahdollisia. Tietohallinnolle mieleinen mahdollisuus on nollata laite käyttäjän vaihdon takia menemättä fyysisesti paikalle – senkin voi tehdä MEM:stä käsin.

Monet asiat, jotka on totuttu kohdistamaan Windows-työasemiin Group Policy Objecteilla, ovat mahdollista toteuttaa MEM:n hallinnasta. Organisaatiosta riippumatta hyödyllisiä ovat mm. laitteiden rajoitukset (esim. yksinkertaisten salasanojen käytön esto), wi-fi -asetusten määrittely, Microsoft Defender for Endpoint -määrittely.

Liiketoimintasovellukset pilvestä ilman sisäverkon mahdollisia pullonkauloja

Myös sovellusten jakelu onnistuu suoraan pilvestä, jolloin se ei ole riippuvainen yhteyksistä sisäverkkoon. Tuettuja muotoja ovat mm. Windows/iOS/Android -kauppojen sovellukset sekä muut kustomoidut liiketoimintasovellukset.

Microsoft 365 Apps for Enterprisen, tuttavallisemmin Office-ohjelmiston, hallinta on Microsoft Endpoint Managerista käsin suoraviivaisempaa kuin koskaan aiemmin. Ohjelmistoa asentaessa aina tuorein versio asentuu loppukäyttäjille. Samoin päivitykset tulevat suoraan pilvestä käsin, jolloin Office-versioiden ajantasaisuus ei ole enää riippuvainen it-osaston aktiivisuudesta.

Datan suojaaminen

Microsoft Endpoint Managerin avulla voi eri laitteille tehdä vaativuusmäärittelyjä, joiden avulla voidaan antaa tai olla antamatta riittävät oikeudet suojattavan sisällön käsittelyyn. Yksi usein käytetty esimerkki on pakottaa käyttäjälle kaksivaiheinen tunnistautuminen, mikäli käyttäjä pyrkii muokkaamaan SharePoint-sivustolla olevaa Excel-dokumenttia laitteelta, joka ei MEM:n kannalta ole luotettu, esimerkiksi kotikoneelta. Järkevästi rakennetun pääsynhallinnan tuloksena ei estetä, vaan suojataan käyttäjien työnteko. Riippumatta siitä, missä ja millä laitteella työntekijä on.

Mobile Application Management (MAM) on tärkeä osa yrityksen datan suojaamisessa. MAM:n avulla saadaan tieto suojattua tuetun sovelluksen sisällä. Käytännössä voidaan siis rajata esimerkiksi mobiililaitteen SharePoint-sovelluksessa käsiteltävä data siten, että se pysyy omassa kuplassaan eikä leviä sovelluksen ulkopuolelle edes käyttäjän vahingon seurauksena.

Ovatko laitteet jo SCCM:n hallinnassa?

Mikäli käytössä on jo System Center Configuration Manager (SCCM), nykyiseltä nimeltään Microsoft Endpoint Configuration Manager (MEMCM), sen yhdistäminen Microsoft Endpoint Manageriin helpottaa IT:n työtaakkaa. MEMCM:n päästä voidaan työkuorma kerrallaan ohjata palveluja MEM:n hallittaviksi, joita on helppo pilotoida. Yksi suosituimmista MEM:iin siirretyistä osa-alueista on Windows-päivitykset. Kun päivitykset hallitaan pilvestä käsin, tulevat ne asennetuksi käyttäjien laitteille olivat ne sitten missä verkossa tahansa. Roima parannus tietoturvaan yhdellä asetuksella!

Microsoft AutoPilotin avulla on myös SCCM:llä tuotetut levykuvat korvattavissa. AutoPilot mahdollistaa siis suoraan laitetoimittajalta käyttäjän luo tulevan laitteen käyttöönoton ilman IT:n toimenpiteitä.

Vielä kerran – miksi MEM?

Microsoft Endpoint Managerin avulla IT saa ajantasaisen ja kattavan inventaarionäkymän käytössä oleviin laitteisiin. Helpolla käyttöönotolla laitteet saadaan MEM:n piiriin, jonka jälkeen erilaisten asetusten kohdistaminen pilvestä käsin on vaivatonta.

Keskitetty laitehallinta MEM:n avulla mahdollistaa myös työntekijöiden omien laitteiden käytön työasioihin joustavasti. MEM:lla voidaan määritellä, millä laitteella saa käsitellä mitäkin dataa ja estää datan vuotaminen hallitsemattomasti.

Seuraavassa blogissa käsitellään Microsoft Autopilottia, jolla työasemien elinkaaren hallinta automatisoidaan itsepalvelutasolle. Myös Autopilotin kanssa Microsoft Endpoint Manager on keskeisessä osassa.

Jos haluat tietää lisää Microsoft Endpoint Managerin suunnittelusta tai käyttöönotosta, autamme mielellämme!

Kiinnostuitko modernin laitehallinnan mahdollisuuksista? Jos haluat kuulla niistä kokemuksia asiakkaidemme suusta, osallistu 11.12. pidettävään webinaariimme ”Tekninen huttu käytäntöön – 2 laitehallinta-casea liiketoiminnan näkökulmasta”.

Kirjoittaja on Sulavan konsultti Lauri Huikko. Lauri on Microsoftin pilvipalveluteknologioiden asiantuntija, erikoisalanaan Microsoft 365 -tuoteperheen täysimittainen hyödyntäminen. Tämän lisäksi hän keskittyy modernin laitehallinnan asiantuntijatehtäviin.

Building a secure Azure data platform

One common concern people often have with the cloud is security: Is moving business data – or any data in general – to the cloud from on-premises secure? The short answer is, yes, it is secure. Or in more detail: It is secure, often even more secure than on-premises, but that is assuming your data platform is designed and built with security in mind.

Fortunately Azure makes data security fairly straightforward by automating a lot of things such as data encryption and various user authentication methods, allowing us to focus on the big picture: Who can access our data, where it can be accessed from, how it can be accessed and so forth. In this post I will provide you with a quick introduction to various security concerns that should be considered when designing and building an Azure data platform.

The Azure data platform as whole is huge, of course, consisting of various database offerings (e.g. Azure SQL Server, Azure Synapse Analytics, Azure Cosmos DB, and Azure’s implementations for PostgreSQL, MySQL and MariaDB), Azure Storage, Azure Data Lake, Azure Data Factory, and more.

Each of these products has their own sets of security features that need to be considered when designing a data platform architecture. These features need to then be reflected against the business requirements of the data platform itself to ensure that, on one hand, the data remains secure, and on the other, the data platform remains fit to meet its requirements. These technical nuances aside there are some overarching security concepts with an Azure data platform that remain the same regardless of the Azure products your solution utilizes.

Who can access my data?

The first key concern with a data platform is determining who has access to the data, and what kind of an access do they have: Read, write, admin, or something else? To be more specific, we are not as concerned with naming particular people as we are with finding user roles and ways to authenticate users and authorize them to their specific roles.

To give you a simplistic example, in a BI solution we at the very least have the roles of report reader, report designer and data administrator.

  • The report reader, who also happens to be the end user of our solution, is content with having read permissions to the report itself.
  • The report designer, on the other hand, should at least have read permissions to the underlying data source, and
  • The data administrator needs to have full administrative permissions there.

Determining the user roles for a data platform helps us to further specify the authentication and authorization methods for our data platform components and the structure of our data. For example, if the platform contains an Azure Data Lake service with data intended for multiple different roles we should then organize the data in a manner which lets us assign role-based access based on the data’s intended target audience.

In such case we might have a set of data for people concerned with sales and another dataset for people from finances. In the case of Azure Data Lake one option among many could be to create security groups for these roles and then use Azure’s role-based accesses to authorize specific containers in the Data Lake.

With a data platform we also need to consider the end solution, whether it is a Power BI reporting solution, custom software, or something else entirely: How does the end solution access the underlying data stores, and how does the solution authenticate and authorize its users?

If the solution uses application permissions to retrieve or manipulate data, it also needs to be able to authenticate and authorize its users reliably. On the other hand, if the application uses the signed-in user’s identity when accessing data, we will be able to implement additional user-based security on the data storage level.

Where can my data be accessed from?

When people think of the cloud and its potential vulnerabilities, the most common concern is that it is available for everyone to see. After all, if your data is in the cloud it will be on the internet, outside the comfort of your company firewalls, right? Well, not exactly. Of course, Azure has its own set of firewalls which allow you to block traffic to and from various services. Azure SQL Server’s firewalls, for example, by default block all traffic coming from outside of Azure and you need to allow specific IP addresses in the firewall to make the database available for access.

After that you might then ask: Well, if I open a specific IP address in the firewall, can’t the IP still be spoofed¬ by a potential attacker? Yes, it can, which is why you should also use strong authentication methods (such as Azure AD authentication with MFA enabled in the case of an Azure SQL Server), and preferably use Azure’s virtual networks (VNET) to connect to your data platform services without the use of public endpoints.

With the use of VNETs you can effectively hide your data platform from the internet and make it only available within Azure through Azure’s trusted services – or even only within the VNET itself. Connecting to a VNET-protected service from the public network would occur through a VPN tunnel installed on an Azure virtual machine that is also part of the VNET.

So, what are Azure’s trusted services? They are a set of services in Azure that Microsoft has deemed to be OK to access services inside VNETs unless they are explicitly blocked. For example, it is possible to access a VNET-protected Data Lake instance from Azure Data Factory assuming the Data Factory’s Azure-managed identity has proper permissions – regardless of whether the Data Factory is located in your own Azure subscription or is owned by some other organization.

With this in mind we need to ask ourselves: How likely is it that someone could crack the service level identity to abuse these trusted services, and as such, how relevant it is for us to block Azure’s trusted services from our VNETs. Which leads us to…

Are these trusted connections (in orange) okay?

How secure is secure enough?

That is the question, isn’t it? When talking about security in IT there eventually comes a point where implementing more security means limiting the use case scenarios of your solution. Such as: Should you allow trusted Azure services to connect to your VNET-integrated Data Lake service? Saying “No” would make your data even more secure, but it would also limit your technical options for working with the data.

It is at these points that the difficult questions need to be asked: Is the environment already secure enough for our needs? Is the ability to enable all our scenarios more important than tightening our security? It is not uncommon to have one party in a company to advocate for more security while another is more concerned with the practical business use of the solution if security is improved to the maximum.

So: How secure is secure enough? At what point should we be content with the level of security present in our solution?

The answer is, of course, “it depends.” It mostly depends on what your solution is, and in the case of a data platform solution, what data your platform has, how important or sensitive the data is and how the data is being used. When dealing with truly sensitive data – such as personal information or national secrets – we can safely say that more secure is better.

On the other hand, for example with a public reporting service we can be fairly lax with read access to the data but any kind of write access can easily be very limited. And then we have any kind of business solutions that fall on the grey area of “We should be very strict with security, but, this solution also needs to be usable enough to produce value for our business”… This is often the point where it is important to sit down with all of the stakeholders for the solution and good security and data platform consultants to find out the ideal compromise for you.

The world of security is vast, and even when writing only about a very specific part of it (such as in the case of the Azure data platform) it is impossible to fit everything into one blog post. So in case you are interested in hearing more – perhaps you are in the process of planning building a cloud-based data platform of your own, or would want a security review for your existing data platform – do get in touch!

Text: Joonas Äijälä

Microsoftin VPN-ratkaisu mobiililaitteille

Etätyö on kasvanut nopeasti, ja monet yritykset ovat yrittäneet selvittää parasta ja kustannustehokkainta tapaa, mikä auttaa etätyön tekemistä. Yksi iso haaste on mobiililaitteiden käyttö, koska kaikkia sisäisiä järjestelmiä tai mobiilisovelluksia ei voi siirtää pilveen syystä tai toisesta. Monet ovat kaivanneet helppoa, hyvää ja turvallista VPN-ratkaisua mobiililaitteille.

Ignite 2020 -tapahtumassa Microsoft Enpoint Manager julkaisi uuden tuotteen ”Microsoft Tunnel”. Se on VPN gateway, jonka kautta käyttäjällä on mahdollisuus päästä käyttämään sisäisessä verkossa olevia resursseja mobiililaitteissa. Microsoft Tunnel on täysin integroitu Microsoft 365 -pilvipalveluun, Condition Access -toiminnallisuus lisää vielä enemmän tietoturvaominaisuuksia. Alla Microsoft Tunnel Gateway -arkkitehtuurin kuvakaappaus Microsoftin sivulta.

Drawing of the Microsoft Tunnel Gateway architecture

Mitä mobiilaitteita Microsoft Tunnel tukee?

Microsoft Tunnel tukee Intune-hallittuja Android- ja iOS-laitteita:

  • Android Enterprise (Fully managed, Corporate-Owned Work Profile, Work profile)
  • iOS/iPadOS

Mitä Microsoft Tunnel -ratkaisun rakentaminen vaatii?

Microsoft Tunnel ei vaadi paljoa jatkuvaa työtä ylläpitoon, palvelu päivitetään automaattisesti. Palvelua voi myös käyttää kuormantasauksen (load balancer) kanssa vikasietoisuutta (high availability) varten. Lisäksi voi luoda integraatioita Azure Sentinelin tai muiden SIEM-työkalujen kanssa, jotta voi valvoa Microsoft Tunnel gateway -järjestelmän tapahtumalokeja.

Microsoft Tunnel -asennus on kohtuullisen helppoa:

  • Microsoft Tunnel server: Linux palvelin
  • Sijainti: Microsoft Tunnel server sisäinen verkko tai Azureen (Azure ExpressRoute tai Azure Site-To-Site VPN)
  • Palomuurisäännöt ja tietoliikenneavaukset
  • Varmenne: Vaatii luotettavan TLS-varmenteen, joka suojaa yhteyttä laitteiden ja Tunnel Gateway -palvelimen välillä
  • Microsoft Endpoint manager Intune kautta määritellään Microsoft Tunnel -palvelun asetuksia
  • Microsoft Endpoint manager Intune kautta määritellä Microsoft Tunnel -profiili mobiililaiteille
  • Käyttäjän identiteetti on Azure Active Directory:ssa
  • Conditional Access -määritykset

Jos haluat tietää lisää Microsoft Tunnelin suunnittelusta/käyttöönotosta, autamme mielellämme, ota yhteyttä!

Kirjoittaja on Sulavan konsultti Sandy Zeng . Sandy on Microsoft MVP (Most Valuable Professional), erikoistunut Microsoft Endpoint Manager (ConfigMgr, Intune, Autopilot) -tuotteisiin.

Moderni laitehallinta – etätyön mahdollistaja

Alkuvuodesta iskenyt koronapandemia on kasvattanut dramaattisesti etätyöskentelyn määrää. Suuri enemmistö tietotyötä tekevistä on tehnyt töitä maaliskuusta lähtien ja työskentelee tälläkin hetkellä jossain muualla kuin organisaation omissa tiloissa. Kuinka ratkaista etäkäyttö niin, että työasemat pysyvät ajan tasalla, turvallisina ja työntekijät tuottavassa työssä? Kuinka nykyaikaistaa työasemien antiikkiset hallintakäytännöt?

Pitkään jatkunut etätyö on tuonut uusia haasteita organisaatioiden IT-järjestelmien toiminnalle: jo keväällä organisaatioissa otettiin laajasti käyttöön uusia järjestelmiä, joiden avulla työntekijät pystyivät kommunikoimaan keskenään sekä sidosryhmien kanssa. Lisäksi mahdollistettiin etäkäyttöä, jotta työntekijät pääsivät käsiksi tarvitsemiinsa sovelluksiin ja tietoon myös omien tilojen ulkopuolella.

Tilanne vaatii myös muutoksia työasemien hallinnalle: enää ei voi luottaa siihen, että työntekijät ja heidän mukanaan työasemat käyvät päivittäin tai edes viikoittain organisaation omissa tiloissa, oman sisäverkon piirissä. On päivänselvää, että nykytilanteessa kaikkien käyttäjien käyttämien sovellusten on toimittava etäyhteyksien varassa, ja samoin työasemien hallinnan on toimittava, kun käyttäjä ja työasema on etäyhteyden päässä.

Mitä tämä tarkoittaa? Sitä, että kaikkien työasemien hallintatoimien täytyy toimia riippumatta siitä, onko työasema organisaation omassa verkossa vai muualla. Aina työaseman käyttöönotosta kokoonpanomäärityksiin ja niiden muutoksiin sekä sovellusten ja päivitysten asentamiseen. Microsoft puhuu modernista laitehallinnasta, joka suurelta osalta tarkoittaa juuri tätä: kaikki työasemaan kohdistetut toimenpiteet pitää voida hoitaa ilman, että edellytetään yhteyttä tai etäyhteyttä organisaation omaan sisäverkkoon.

Pois antiikkisista hallintakäytänteistä

Toki moderniin laitehallintaan liittyy myös muuta kuin paikasta riippumaton hallinta – nyt on korkea aika nykyaikaistaa työasemien hallintakäytännöt! Windows-työasemia on vuosikaudet hallittu samojen antiikkisten käytäntöjen mukaan: käyttöjärjestelmä päivitetty kerran kolmessa vuodessa, kun työasemakin on vaihdettu, ja tärkeimmät sovellukset, ml. Office vähän samaan tahtiin.

Microsoft on jo vuosia jakanut sekä Windows-käyttöjärjestelmän että Office-sovellusten päivitykset jatkuvalla mallilla, jossa isompia päivityksiä tulee kuuden kuukauden välein, ja pienempiä, lähinnä tietoturvaan liittyviä kuukausittain. Nyt on korkea aika kaikissa organisaatioissa siirtyä tähän jatkuvan päivityksen sykliin.

Moderni laitehallinta on siis tärkeä osa etätyön mahdollistamista. Sen avulla varmistetaan, että työasemat säilyvät ajan tasalla ja määritettyinä myös silloin kun työntekijät ovat etätöissä. Tärkeää on samalla varmistaa, että työntekijöillä on pääsy kaikkiin niihin sovelluksiin ja tietoon, joita he jokapäiväisessä työssään tarvitsevat.

Syksyn aikana julkaistavassa blogi- ja webinaarisarjassamme keskitymme itse modernin laitehallinnan lisäksi myös etätyön mahdollistamiseen, olivat tarvittavat sovellukset ja tieto sitten paikallisessa ympäristössä tai pilvessä.

Lisää kuulet webinaarissa – ilmoittaudu mukaan:

Millaisia etuja moderni laitehallinta yrityksellesi voi tarjota? Tule Sulavan Chief Technology Officer Kimmo Bergiuksen maksuttomaan webinaariin 17.9.2020. Ilmoittaudu mukaan!


Miten saat Office 365 -ympäristön pystyyn muutamassa tunnissa, osa 2

Office 365 E1 trial on Microsoftin kuuden kuukauden ilmainen kokeilu Office 365 E1 -palvelupaketista. Tämä on Microsoftilta yrityksille kädenojennus, jolla mahdollistetaan etätyö näinä haastavina aikoina.
Lue myös osa 1 blogisarjastani, jossa avataan Office 365 E1 -tuotepakettia enemmän. Tässä osassa käsittelen Office 365 -ympäristön pystytystä aivan alkumetreiltä käyttäjien lisäämiseen asti. Kun olet saanut promo-URL:n Microsoft-kumppaniltasi, kuten meiltä, avaa linkki selaimeen privaattitilaan. Näin käyttöönotto sujuu helposti.

 

Tilauksen tekeminen

 

Ensimmäisellä sivulla sinun pitää täyttää nämä tiedot. Laita kohtaan Business email address sinulla jo käytössä oleva sähköpostiosoite. Saat siihen osoitteeseen perustiedot jälkikäteen. Samalla kiinnitä huomiota oikeassa yläkulmassa olevaan tekstiin: ”Want to add this to an existing subscription?” Tämä siinä tilanteessa, että yritykselläsi on jo olemassa Office 365 -ympäristö, mutta haluat kokeilla siellä, mitä lisää E1 siihen tuo.

Seuraavaksi pitää päättää ensimmäinen tunnus, siihen salasana ja Office 365 -ympäristön nimi. Nimi kannattaa valita tarkkaan, sillä sitä ei voi jälkikäteen vaihtaa. Ensimmäinen käyttäjä on samalla koko Office 365 -ympäristön ylläpitotunnus, joten laita tunnus itsellesi hyvään talteen. Suosittelen käyttämään tunnusta, jota ei ole sidottu henkilöön, esimerkissä ”o365admin”

Tässä varmistetaan ettet. Ole. Robotti. Laita kenttään toimiva puhelinnumero, johon sinulle lähetetään vahvistuskoodi.

Syötä saamasi vahvistuskoodi tähän kenttään.

Seuraavaksi saat yhteenvedon. Siinä näkyy osoite, josta pääset Office 365 -ympäristöösi sekä ylläpitäjän tunnus. Nämä samat tiedot tulevat sähköpostilla myös alussa ilmoittamaasi sähköpostiosoitteeseen.

Pelkkää Office 365 E1 -kokeilua varten ei välttämättä kannata liittää toimialuetta tässä kohtaa. Toimialue-kytköksellä saat yrityksesi hankkiman nimen esim. sähköposteihin ja käyttäjätunnuksiin. Tämä kytkös voidaan tehdä myös jälkikäteen.

Seuraavaksi voidaan naputella käyttäjiä. Tässä alkuun olisi hyvä laittaa muutama ensimmäinen käyttäjä. Loput käyttäjät voidaan tuoda Office 365 -hallintaportaalista massana, joten tässä kohtaa ei kannata naputella kymmeniä käyttäjiä.

Microsoft Teams on olennainen osa E1 -palvelupakettia, joten tämä asetus kyselee, haluatko luoda jo tässä kohtaa lisäryhmiä. Suosittelen tekemään ne kuitenkin suoraan Teamsissa tai hallintaportaalissa. Oletuksena on yksi ryhmä, johon liitetään automaattisesti kaikki Office 365 -ympäristösi käyttäjät.

Koska Office 365 E1 ei pidä sisällään Office-ohjelmistoja Windowsiin, näkyy tässä kohtaa vain Skype for Business. Sitä ei tietenkään asenneta, sillä Teams on monipuolisempi ja mukavampi. Lisäksi Skype for Business -palvelu on päättymässä kokonaisuudessaan, joten siihen ei kannata enää panostaa.

Viimeisenä voit antaa palautetta. Voisit tehdä heti myös sähköpostien migraation. Migraatio voidaan tehdä jälkikäteen ja vaatii yleensä tarkempaa suunnittelua, joten ei tehdä sitä tässä kohtaa.

Näin pääsit loppuun! Tässä näkyy Office 365 Admin center, joka tulee hetken päästä tutuksi. Nyt on hyvä pitää kahvitauko, sillä taustalla Office 365 -ympäristöäsi valmistellaan edelleen.

 

Käyttäjien lisääminen Office 365 -ympäristöön

 

Seuraavaksi lisätään Office 365 -ympäristöösi käyttäjiä. Mahdollisuuksia löytyy melko paljon, tässä esimerkissä lähden lisäämään massatoiminnolla käyttäjiä.

Massatoiminnon idea on se, että lataat ensin mallitiedoston CSV-muodossa, joko otsikkokentillä tai jopa mallisisällöllä. Käytän tässä esimerkissä mallisisältöä ja lisään itseni käyttäjäksi.

Esimerkkitiedostossa on valmiiksi 5 käyttäjää, jotka tietenkin tyhjennän. Mallitiedosto on CSV pilkulla erotettu malli. Excelillä tämä on helppo perustaa. Toki jos yrityksesi saa käyttäjätiedot tuotua toisesta järjestelmästä, se helpottaa asiaa.

Kirjoitan käsin tietoni mallin mukaisesti. Kannattaa jatkoa ajatellen lisätä myös Mobile Phone -numero. HUOM! Tarkista tiedosto avaamalla se Notepadiin, että CSV-tiedoston kentät ovat varmasti pilkulla erotettu.

Seuraavaksi lähetän tiedoston takaisin Office 365:n ja Verify-napilla saan tarkistettua, että tiedostomuoto on oikean muotoinen.

Seuraavaksi päätetään lisenssi, mitä käyttäjille määritetään. Esimerkissä valitsin koko E1-palvelun kaikki tuotteet.

Käyttäjien viennistä saa näppärän taulukon ladattua, tai samat tiedot saa sähköpostilla. Jäljelle jääkin tietojen välittäminen käyttäjälle haluamallasi tavalla.

Lopputuloksena Office 365 -ympäristössä on tässä mallissa lisätty yksi käyttäjä.

Tällä esimerkillä saadaan suhteellisen vaivattomasti perustettua Office 365 E1 Trial -ympäristö ja lisättyä käyttäjät lisensseineen. Mitään muuta ei ole välttämätöntä tehdä nyt. Sähköpostien siirrot, toimialueiden määritykset ja muut määritykset voidaan tehdä hyvin jälkikäteen. Sulavalta saat apua näiden suunnitteluun ja suorittamiseen. Ota yhteyttä sales@sulava.com

Seuraavassa osiossa paneudutaan Microsoft Teamsin käyttöönottoon.

 

Mikä on Office 365 E1 trial ja miten pääset alkuun

Lue blogisarjan ensimmäinen osa

Office 365 –ympäristö tyhjästä

Tarjoamme Office 365 -ympäristön asentamisen asiakkaalle, joka ei ole aiemmin käyttänyt Office 365 -palveluita.

Tutustu palveluun



Valtteri keskittyy Moderniin laitehallintaan, Microsoft 365:n sekä tietoturvaan. Hän on toiminut yli 10 vuoden ajan asiantuntija-, konsultointi- ja koulutustehtävissä. Hänellä on kokemusta niin on-premises -ratkaisuista pilveen ja pilvisiirtymisiin asti. Sydäntä lähellä on tietoturva kaikissa olomuodoissa.

Mikä on Office 365 E1 trial ja miten pääset alkuun

Office 365 E1 trial on Microsoftin 6kk ilmainen kokeilu Office 365 E1 -palvelupaketista. Tämä on kädenojennus Microsoftilta yrityksille, jolla mahdollistetaan etätyö näinä haastavina aikoina.

Office 365 E1 trial –palvelupaketti pitää sisällään melkoisen tuotepaketin töiden tekoon.

  • Outlook sähköpostin 50Gt tallennustilalla
  • Käytössäsi on aivan loistavat selainpohjaiset Office-työkalut Word, Excel, PowerPoint sekä OneNote, jolla muuten tämäkin blogipostaus on kirjoitettu
  • Android- ja iOS-laitteille saat edellämainitut Office-tuotteet viidelle eri laitteelle
  • Tallennustilakin on melko hulppea, 1Tt OneDrive for Business -tallennustilaa omille tiedostoille sekä yhteistä tallennustilaa Office 365 -ryhmien muodossa
  • Etäneuvotteluita, kokouksia ja tiedonjakoakaan ei ole unohdettu, Microsoft Teams -palvelu kuuluu pakettiin
  • Etäneuvottelujen ja kokousten tallennukseen tai yleensäkin videoiden tallentamiseen paketti sisältää mainion Microsoft Streamin 500Gt tallennustilalla. Sinne mahtuu melkoinen määrä videotallenteita!

Näin pääset alkuun

Tarvitset Microsoft-kumppanilta erillisen kampanjalinkin/koodin, jolla pääset eteenpäin tilauksen teossa. Ota yhteyttä sales@sulava.com, niin saamme sinulle kampanjan alkuun!

Tilaus voidaan tehdä olemassaolevaan Office 365 -tenanttiin tai aloittaa aivan nollasta. Joka tapauksessa saat pitkäksi aikaa kattavan paketin työkaluja töiden tekemiseen kotoa tai laiturinnokasta. Meillä Sulavalla on tapana tehdä töitä paikkariippumattomasti, fyysisellä sijainnilla ei ole merkitystä. Tällöin esim. Microsoft Teams on aivan korvaamaton työväline.

Nyt kuitenkin kannattaa kuitenkin pysyä kotona ja hyödyntää Office 365:stä löytyviä arvokkaita työkaluja!

Alkumetreille seitsemän vinkkiä:

1. Mieti käyttäjiä. Mitä välineitä he tarvitsevat nyt töiden suorittamiseen?
2. Mieti Teamsin rakennetta. Tiimit, keskusteluryhmät ja varsinkin kanavat, että käyttöönotto onnistuisi mahdollisimman hyvin
3. Kuuden kuukauden kokeilun jälkeen voit siirtyä helposti eteenpäin lisenssiteknisesti, varaudu jatkoon syksyllä 2020
4. Haluatko myös oman toimialueesi sähköpostit Office 365:n? Voit tehdä sen nyt tai myöhemmin
5. Ovatko käyttäjien laitteet kunnossa? Teamsia varten tarvitaan hyvä kuulokemikrofoni ja webbikamera
6. Onko tietoturva kunnossa? Tässä olisi oiva hetki tarkistaa yrityksesi tilanne
7. Varaa riittävästi aikaa. Tutustu palveluun ja sen mahdollisuuksiin. Kysy asiantuntijoilta.

Alkuun pääsee melko helposti ja ylläoleviin alkupohdintoihin saat myös meiltä apua. Mutta jatkoa ajatellen Office 365:ssä oma toimialue, käyttäjien synkronointi tai sähköpostimigraatiot ovat aikaa vieviä ja vaativat hyvää suunnittelua. Sulavalta saa apuja kaikkiin Office 365:n liittyviin jatkokehityksiin, ole siis rohkeasti yhteydessä!

Seuraavassa blogisarjani osiossa kerron, miten saat yrityksellesi Office 365 -ympäristön pystyyn muutamassa tunnissa.

Miten saat Office 365 -ympäristön pystyyn muutamassa tunnissa

Lue blogisarjan seuraava osa

Office 365 –ympäristö tyhjästä

Tarjoamme Office 365 -ympäristön asentamisen asiakkaalle, joka ei ole aiemmin käyttänyt Office 365 -palveluita.

Tutustu palveluun

Valtteri Aho
Valtteri keskittyy Moderniin laitehallintaan, Microsoft 365:n sekä tietoturvaan. Hän on toiminut yli 10 vuoden ajan asiantuntija-, konsultointi- ja koulutustehtävissä. Hänellä on kokemusta niin on-premises -ratkaisuista pilveen ja pilvisiirtymisiin asti. Sydäntä lähellä on tietoturva kaikissa olomuodoissa.

Intranet Information Architecture – Purpose and scope of the intranet

This is the second post in my blog post series explaining how to plan and implement an effective intranet information architecture. In the first part we got the ball rolling with the basics, and now it’s time to start defining the purpose and scope of the intranet.

In the upcoming parts of this blog post series we will then dive deeper in all areas of the planning process:

  • Read part 1: Understanding the basics – what is information architecture
  • Defining purpose, roles and contents of the intranet (this post)
  • Planning the physical infrastructure (hubs and sites)
  • Organizing contents in topic sites, navigation and metadata
  • Creating awesome and accessible pieces of information using content pages
  • Improving discoverability with landing pages and additional paths
  • Ways to take care of content findability
  • Implementing processes to keep the content up-to-date

Purpose and scope of the intranet

It might sound trivial – of course we know what an intranet is. It’s a place where we bury all the information and materials related to our business and support functions. Usually there’s also some kind of a news feed and lunch menu available.

However, from the information architecture point of view, we have two extremely important questions to answer:

  • Who are the users and what are their use cases – why on Earth do they visit the intranet? What are they looking for?
  • What are the contents of the intranet – how does the intranet differ from a business unit public team? Or Yammer news feed? And what about file shares?

When we are able to present answers to those questions with clearness and clarity, we have actually defined the purpose, role and scope of our intranet – and after that it’s suddenly much easier to plan the information architecture so that intranet stuff is easy to find and stays up-to-date.

It starts with the Playbook

I have to admit – personally, I don’t fancy the word playbook. We’re all adults here and should know how to play this game already. But it’s the word Microsoft uses and I don’t have anything better to offer so let’s be happy and stick with it.

Usually, playbooks are used to support the move from a traditional way of working (file shares & email) to modern, cloud-based applications, and more communicative and open working culture. In a nutshell, playbook is a presentation which describes:

  • roles of communication and collaboration tools in our organization
  • ways of working together using those tools

If you find yourself thinking “well, I didn’t need any playbook to understand how to work”, you’re most likely right. The need for a playbook is quite a new phenomenon. Previously we only had two tools with very clear roles: email (to communicate) and file shares (to collaborate). And even with the rise of SharePoint portals and workspaces there was still just one simple place where to work together.

But in a modern, Microsoft 365 -powered workplace there are plenty of different apps with quite similar possible use cases. You can store and share your files using OneDrive, Teams or SharePoint. You can post announcements as SharePoint news, Yammer group conversations, Teams channel announcements or private chats – and yes, you can still use email. And if we don’t agree when to use what as an organization, it will be a mess.

Some concrete examples of playbook contents:

Pic 1: Explaining the move from old communication and collaboration tools to the new onesExplaining the basic roles and use cases of the new tools

Pic 2: Explaining the basic roles and use cases of the new tools

Explaining ways of working: content creation process on Teams, publishing & outer loop discussions on SharePoint and Yammer

Pic 3: Explaining ways of working: content creation process of Teams, publishing & outer loop discussion on SharePoint and Yammer

Well, okay – we could have a dedicated blog post series for the playbook, but let’s get back to the topic! So why do we need the playbook to plan Intranet information architecture? The answer lies in defining the scope of the intranet. With the help of playbook we can pick any single piece of information and answer the question: Should this reside on the Intranet?

Yes, we do want to be a little bit exclusive. There are some qualifications for the intranet content. In my opinion, contents of the intranet should be:

1. Published

– we don’t want to have any drafts or unfinished or not-yet-approved content on the intranet

2. Non-negotiable

– there’s definitely time and place for the discussion about the content, but it should happen either before publishing (when working together) or after publishing in enterprise social network platform (like Yammer), and not directly as a part of intranet content

3. Valid and up-to-date

– it’s okay to have an archive but it should be clearly separated from the operative content in active use

In a nutshell, playbook is a presentation of the design of your digital workplace. Intranet is one element (service, platform) of that workplace, and it should have a very clear specific role and scope. But what about users and their needs?

User scenarios – what are you doing here?

Every intranet is – of course – unique. But after 12 years of planning and implementing them I dare to say this: they do have a lot in common, too. The two most important, core use cases for every intranet I’ve seen are these:

I want to find the information I need (in order to thrive at my job)

I want to be aware of what’s happening (in order to feel connected)

So it’s pretty safe to assume that these two should be kept on top of mind during the planning process. But in order to dig deeper in and find out how your intranet should serve the organization, it’s important to identify business-specific scenarios.

A scenario or high level use case is a written description of how the intranet is used and what business challenge it will solve. Simple way to document scenarios is to write sentences with these four elements:

  1. As someone in [team, unit, role]…
  2. I want to [do something]…
  3. Using [tools]..
  4. In order to [goal / success measure]

For example: As a Contoso employee, I want to glance through the global news feed every morning while commuting using SharePoint mobile app in order to keep on track of the important updates and announcements.

Microsoft provides a lots of SharePoint-specific material with very similar scenario model and even ready-to-use workshop materials – you can find them here (Envision Workshop Concept).

Wrap up!

So, in the pursuit of proper intranet information architecture we ended up (re)designing the whole digital workplace – and that’s not a bad thing to do! At the moment way too many organizations live in a communication & collaboration chaos.

Ideally, the process for defining the scope, role and purpose of the Intranet goes like this:

  1. Identifying digital workplace scenarios
  2. Planning digital workplace tools and ways of working to support the scenarios
  3. Explaining and visualizing them with the Playbook
  4. Recognizing intranet-specific scenarios, tools and ways of working –> purpose, role and scope of the intranet

With this information it’s easy to continue to the next step in the intranet information architecture planning process: planning the physical infrastructure (hubs and sites). See you next time!

I will be presenting a session of this topic in SharePoint & Microsoft 365 Conference next May in Las Vegas – hope to see you there!

This blog posting has originally been published at Katja Jokisalo’s blog

Stay tuned for webinar!

We are planning to host a webinar on information architecture in June. Enjoy this blog-series and you’ll find a sign-up link in later episodes.



Microsoft-konsultti, erityisosaamisena O365 ja SharePoint, sydäntä lähellä ryhmätyö, intranetit, hakutoiminnot ja hankintojen hyötykäyttö. MVP | MCT | MCITP | MCPD | MCTS | MCSA. Sähköposti: katja.jokisalo@sulava.com, Twitter: @katjajokisalo.

Intranet Information Architecture – What is it?

This is the first post in my blog post series explaining how to plan and implement an effective intranet information architecture. In this first part we will start with the basics – what is information architecture, what does it mean in the context of intranets, what skills are needed in order to plan and implement it, and what are the main areas involved and steps to be taken in the planning process.

In the next parts we will dive deeper in these main areas of the planning process during the spring 2020:

  • Understanding the basics – what is information architecture (this post)
  • Defining purpose, roles and contents of the intranet
  • Planning the physical infrastructure (hubs and sites)
  • Organizing contents in topic sites, navigation and metadata
  • Creating awesome and accessible pieces of information using content pages
  • Improving discoverability with landing pages and additional paths
  • Ways to take care of content findability
  • Implementing processes to keep the content up-to-dat

Phew, there’s lot on our plate! But let’s start with the basics 🙂

What is information architecture

Building your own modern intranet site has never been this easy – in the simplest case you can just visit lookbook.microsoft.com, pick your favorite template and copy it to your tenant.

Despite the fact that there’s no more need to plan and implement your own technical solution or platform for your intranet from the scratch, there’s still one critical aspect which can’t be copy-pasted or implemented as is. In order to build a great intranet, you really need to plan and implement a proper intranet information architecture which is unique to your organization.

What are we talking about?

So what actually is information architecture? Wikipedia describes it pretty well:

Information architecture (IA) is the structural design of shared information environments; the art and science of organizing and labelling — , intranets, — to support usability and findability; and an emerging community of practice focused on bringing principles of design, architecture and information science to the digital landscape.

In a nutshell IA means taking care of these two things:
1) Organizing content
2) Usability and findability of the content

Organizing content means that we recognize the different contexts of the content, group items together based on that context (with structure or labels) and usually also apply some hierarchy to it. A traditional library is a typical example of this – books are divided into different categories (sci-fi, cooking etc) and arranged by the author. However, it used to be difficult to find the book you’re looking for and you needed to walk back and forth between the shelves in order to figure out the navigation logic.

The second part – usability and findability – is necessary in order to make the organized content easy to use and discover. Google search engine is a good example of this – it’s extremely easy to use and you do find stuff, but the results are not organized and you need to rely on your own media reading skills to figure out if the contents are valid or trustful or in the context of your search.

How does it apply to intranets?

When we talk about intranets – and specifically modern SharePoint intranets – organizing content means that we create a physical structure (sites and libraries and folders) and necessary labels (metadata) for the content, and present it to the user with pre-planned logic (navigation). We also plan our page templates with layouts and elements (web parts) to organize the contents of the single piece of information. Pretty simple!

When it comes to usability, things tend to have more layers and variations based on your needs and resources. Even though we don’t have many out-of-the-box options to modify the user interface, we can still take care of usability by making sure that the intranet is easy, efficient and satisfying to use. Some tips below.

  • Easy to use
    • offer training, tips, how-to-guidance for the most important use cases
    • create color themes with sufficient contrast ratios and page layouts with clear visual sections
    • implement landing pages which will guide the user to the content and provide context
    • make sure that every page has contact information available
  • Efficient to use
    • support mobile use
    • implement multi-channel publishing – push intranet contents to other apps or let your users access content from where they work (eg. a tab on Teams channel)
    • limit the amount of content visible with audience targeting
    • use elements offering personalized content based on Microsoft Graph data, eg. suggested news
    • make sure your internet bandwidth is reasonable
  • Satisfying to use
    • make it beautiful! Use pictures!
    • create interesting, well written content which is up to date

And what about findability? That’s a very important part, because the most common complaint about the intranet is that “You can’t find stuff”. There are actually two closely connected topics to consider here:

  • Findability, which means the ability to FIND the content you’re actively looking for, either using search or navigation
  • Discoverability, which in addition to findability means the ability to NOTICE, EXPLORE, WALK INTO the content (especially changes, new and updated content) even if you were not actively looking for it.

We’ll have a dedicated blog post for both of these later on in this series.

What do you need to know?

So, it seems that planning and implementing information architecture does require something else than just creating top level sites for your intranet contents. It’s easy to ruin the user experience of your technically advanced intranet with the lack of information architecture.

However, it’s not rocket science. There are three main skills involved:

1. Users and their needs.

Remember – intranet is always a service platform, internal support function which main role is to offer the employees the information they need in order to excel in their job. So the first thing you need to know is who is going to use the intranet and why.

2. Contents.

It’s essential to be familiar with the content in order to organize it. In a tiny organization there might be someone who knows everything about everything, but in normal case we work in two different levels – there’s group of people who know a little bit of everything (planning the overall intranet structure and main areas) and other groups of people who know everything about their specific subject (content experts or owners planning the contents and navigation of their own site)

3. Technology.

There are a bunch of technical limitations and best practices affecting how the information architecture can and should be implemented. For example, by default in modern SharePoint people can only follow sites, not categories or metadata. This means that if you want to allow the users to follow certain type of news, you shouldn’t put all your news articles in one centralized news site but instead make them decentralized in the related topic sites.

How does the planning process look like?

I’m happy and honored to have been able to participate in planning and implementing more than 70 intranets during my career so far. Despite the fact that these projects vary in size, resources, technology and complexity, there’s always a certain “base model” of planning process I tend to follow.

information architecture planning process

In the beginning (black row) we define the users and their needs, the roles of the intranet, and connections to other information work apps and services. We also figure out what are the contents of the intranet in high level and who are the people taking responsibility of each of the main content areas.

In the second phase (blue row) the main physical structures are planned. Contents are divided to sites, and based on the amount of content and complexity of the intranet, hubs and main level (hub) navigations are planned by the intranet core project group.

Then it’s time to dive deeper in the content (green row) with the content owners and start planning the contents and local navigation of each topic site. Local navigation is usually organized by topics or themes, but during that work it’s also useful to figure out what other labels we should apply to content. These labels (=metadata) are later on used to create additional paths and improve findability and discoverability.

When we do know the contents it’s time to plan how to present the information for the user. In this phase (red row) we decide what kind of elements there are in each page and in what kind of layout supports the content the best. This is also the right time to talk about terminology and style of the written language and other contents of the intranet.

So we started from the high level general view of the intranet contents and in each of the first four rows we stepped into more detailed level. In the last phase (yellow row) it’s time to take a step back and return the focus to the higher level. Now that we know what’s happening inside the intranet it’s time to plan the landing pages (intranet front page, section or topic site landing pages) and additional paths to content. In the last step we also define the ways and processes to keep the contents up-to-date.

That’s it! Hope you enjoyed the ride and got an idea of the meaning and importance of a proper information architecture. I will be presenting a session of this topic in SharePoint & Microsoft 365 Conference next May in Las Vegas – hope to see you there!

This blog posting has originally been published at Katja Jokisalo’s blog

Stay tuned for webinar!

We are planning to host a webinar on information architecture in June. Enjoy this blog-series and you’ll find a sign-up link in later episodes.


 


Microsoft-konsultti, erityisosaamisena O365 ja SharePoint, sydäntä lähellä ryhmätyö, intranetit, hakutoiminnot ja hankintojen hyötykäyttö. MVP | MCT | MCITP | MCPD | MCTS | MCSA. Sähköposti: katja.jokisalo@sulava.com, Twitter: @katjajokisalo.

IPv6 käyttöön – miksi ja miten?

Joulukuun 25. päivä 2019 Euroopassa IP-osoitteita hallinoiva RIPE NCC julkaisi tiedotteen, jossa se kertoi jakaneensa viimeiset allokoidut IPv4-osoitteet ja osoitteiden olevan näin ollen virallisesti loppu. Mitä tämä tarkoittaa käytännössä? Välittömästi ei vielä mitään koska esim. operaattoreilla on vielä jonkin verran ”varastossa” olevia IPv4-osoitteita. Vaikutuksia on kuitenkin ollut jo selkeästi nähtävillä ainakin vuoden ajan osoitteiden hintojen nousuna. Monet operaattorit ovat esimerkiksi alkaneet laskuttaa asiakkaita käytössä olevista, aiemmin ilmaisista, IPv4-osoitteista. Tämän lisäksi asiakkaille jaettujen osoitteiden määrää on pyritty vähentämään, sekä aiemmin kiinteitä osoitteita pyritty muuttamaan dynaamisesti jaettaviksi. Jatkossa julkisia IPv4-osoitteita on yhä hankalampi saada käyttöön uusille palveluille ja se tulee olemaan aiempaa kalliimpaa. Tämä tulee näkymään myös jo käytössä olevien palveluiden ja osoitteiden osalta.

Mitä seuraavaksi?

Ratkaisu kaikkeen tähän tulee olemaan IPv6. Aikojen kuluessa IPv4:n ongelmista on otettu opiksi ja näin ollen IPv6 tarjoaa koko joukon parannuksia IPv4:ään verrattuna.

Näitä ovat mm.

  • Massiivisesti suurempi osoiteavaruus. Osoitteita tulee riittämään kaikille laitteille ja palveluille.
  • Tehokkaampi reititys. IPv6:ssa esimerkiksi IP-paketin tarkistussummaa ei tarvitse laskea uudelleen joka reitittimellä TTL-arvon muuttuessa.
  • NAT-muunnosta ei tarvita. Julkisia reititettäviä osoitteita riittää kaikille laitteille ja osoitemuunnoksia ei tarvitse tehdä verkkojen reunoilla. Tämä helpottaa erilaisten palveluiden rakentamista ja käyttöönottoa sekä pienentää esimerkiksi verkkolaitteiden kuormitusta.
  • Palaaminen alkuperäiseen End-to-End ajattelumalliin verkkojen osalta, jossa liikenteen lähettäjä ja vastaanottaja tekevät työn ja matkan varrella tehdään vain yksinkertaista reititystä.

IPv6:n osalta on kuitenkin vallalla monia väärinymmärryksiä. Yksi näistä on se, että IPv6 on kuin IPv4 pidemmillä osoitteilla, joten uutta osaamista tai suunnittelua ei tarvita. Koska IPv6 on suunniteltu ns. puhtaalta pöydältä eikä se ole suoraan alaspäin yhteensopiva IPv4:n kanssa, ei tilanne ole ihan näin yksinkertainen, vaan IPv6 eroaa huomattavasti IPv4:stä ja tuo mukanaan monia uudistuksia. Eroja on esimerkiksi dynaamisten osoitteiden jakelussa, joka toimii täysin eri tavalla kuin IPv4:ssä. Huomattavia eroja on myös esimerkiksi reitityksessä, aliverkotuksessa, nimiselvityksessä, sekä siinä miten laitteet käyttävät osoitteita eri tarkoituksiin. Näistä (ja monista muista) syistä johtuen uutta tietoa ja osaamista tarvitaan eikä vanhoilla IPv4-opeilla saada toimivaa kokonaisuutta aikaiseksi IPv6-puolella.

Onko jo oikeasti aika IPv6:n käyttöönotolle?

IPv6:n tulemisesta on puhuttu jo pitkään mutta onko asialle oikeasti tapahtunut mitään? Vastaus tähän on perinteinen kyllä ja ei. Useimmissa organisaatioissa ei ole tarvetta IPv6:lle tai sen käyttöönottoa ei ole mietitty millään tavalla. Toisaalta Internet-operaattorit ovat suurimmaksi osaksi tarjonneet mahdollisuutta IPv6:n käyttöön jo pitkään. Tämän lisäksi monet palvelu- ja pilvipalvelutoimittajat tarjoavat palvelujaan yhtäläisesti myös IPv6:n päällä. Esimerkiksi Googlelle tulevista pyynnöistä jo noin kolmannes käyttää IPv6-protokollaa. Vastaavasti monet muut Internetin käytetyimmistä palveluista, kuten Office 365, Amazon, Facebook, Wikipedia ja Netflix tukevat natiivia IPv6:tta. Viime syksyn Ignite-tapahtumassa Microsoft julkisti tiedon, että tuki IPv6:lle on tulossa (ja monilta osin jo tullut) kaikkiin Azuren palveluihin. Office 365:n (ja M365:n) osalta tuki on keskeisten palveluiden osalta ollut olemassa jo jonkin aikaa. Operaattorit tarjoavat myös laajalti IPv6:n käyttömahdollisuutta mobiilidatan puolella sekä kuluttaja-Internet-liittymissä.

Kaiken tämän perusteella kaikissa organisaatioissa olisi hyvä, jos ei suoraan aloittaa laajamittaista IPv6-käyttöönottoa, niin ainakin varautua siihen ja tehdä suunnitelma, testaukset ja Proof-of-Concept käyttöönoton osalta. Tämä siksi, että yleensä uusien tekniikoiden osalta käy niin, että siinä vaiheessa, kun niitä oikeasti tarvitaan, niin ne tarvittaisiin lähes heti tai vähintään seuraavaksi aamuksi. Tuolloin yleensä on paitsi kiire, niin myös huutava pula osaamisesta ja resursseista. Sen takia on parempi aloittaa jo nyt tekemällä asioita IPv6:n osalta hiukan etukenossa ja tuoda sitä omiin verkkoihin pikkuhiljaa ja hallitusti IPv4:n rinnalle.

Miten Sulava voi auttaa?

Sulava tarjoaa organisaatioille apua IPv6-käyttöönottoihin liittyvissä asioissa. Teemme yhteistyössä asiakkaan kanssa kaiken aina esiselvityksestä ja suunnittelusta POC-ympäristöjen toteutuksiin ja kokonaisiin käyttöönottoihin asti tarpeen mukaan. Tarjoamme myös koulutusta aiheeseen liittyen kurssilla ”IPV6 teoriassa ja käytännössä”. Seuraava toteutus kurssista on 25.3.2020.


Heikki Bergius


Heikki Bergius on toiminut yli 25 vuoden ajan erilaisissa tietotekniikan koulutus- ja konsultointitehtävissä. Uransa aikana hän on hankkinut laajaa osaamista ja kokemusta monista Microsoft- ja muista teknologioista. Nykyään hänen erikoisosaamisalueitaan ovat mm. Azure IaaS -tekniikat, Azure-hybridiratkaisut, System Center -tuotteet, Windows-palvelimet sekä erilaiset automatisoinnit ja vianetsintä.

Viimeistään nyt on aika suunnata pilveen, mikäli yrityksesi aikoo pysyä kehityksen mukana

“Voihan sinne jotain kokeilumielessä laittaa, mutta tuotantoon meillä ei pilvi ikinä tule.” Muistan hyvin keskustelut ja epäluulot pilvipalveluista 2010-luvun alkupuoliskolla. Todellisuus yllätti jälleen kerran. Huolet pilven turvallisuudesta ja saatavuudesta osoittautuivat turhiksi. Sen sijaan pilvi tuo merkittäviä hyötyjä, joista lisää vähän alempana. Monet kielteisesti pilveen suhtautuneet ovat jo tehneet siirtymän eikä paluuta vanhaan ole näköpiirissä. Ja miksi olisikaan?

Pilviratkaisujen liiketoimintahyödyt ovat jo pitkään olleet kiistattomia. Tietotekniikkainfraan ei tarvitse investoida vaan kulut saadaan operatiivisiksi. Kulut ovat myös ennakoitavia ja joustavia. Kapasiteettia on aina saatavilla tarpeen mukaan. Pilvi skaalautuu sekä ylös- että alas päin. Tämä on monelle tuttua, mutta pilvi tarjoaa paljon muitakin hyötyjä.

Pilvipalvelut ovat kasvaneet nopeasti. Tutkimusyhtiö IDC ennustaa, että tänä vuonna julkisen ja yksityisen pilven investoinnit ohittavat lopullisesti investoinnit perinteisempään tietotekniikkaan. Sinänsä 50 prosentin raja on vain yksi merkkipaalu, mutta se on vahva merkki siitä, että jokaisen yrityksen kannattaa viimeistään nyt kiihdyttää pilvisiirtymäänsä. Pilvi ei ole enää “muotiasia”, sinne on syytä mennä, jotta pysyy ajan tasalla.

Pilvi vauhdittaa yrityksen kehitystä

Yksi tärkeimmistä syistä pilveen menemisessä on kehitys. Niin yrityksen oma kuin palvelujenkin kehitys.

Suurin osa palvelujen kehityksestä tehdään nyt pilvi edellä. Uusimmat ominaisuudet tulevat joko ensin tai ainoastaan pilveen, jolloin perinteiset sovellukset ja ratkaisut alkavat jäädä kehityksessä jälkeen. Myös tietoturvapuolella investoinnit ovat pääasiassa pilvessä. Mikäli yrityksesi aikoo pysyä päivityksissä ja ominaisuuksissa ajan tasalla, ei pilvelle ole juuri vaihtoehtoa.

Pilvi vauhdittaa myös oman yrityksesi kehitystä. Teams ja siihen integroidut Microsoftin ja kolmansien osapuolten sovellukset muuttavat ja tehostavat perustavalla tavalla tapojamme tehdä töitä. Samoin Azuren pilvestä löytyvät palvelut, kuten esimerkiksi koneoppiminen ja analytiikkatyökalut mahdollistavat uusien liiketoimintaratkaisujen tekemisen paljon nopeammin kuin ennen. Datan määrä on kasvanut viime vuosina räjähdysmäisesti. Liiketoimintapäätösten tekeminen datan avulla huutaa myös pilveä avukseen.

Pilvisiirtymä ei kuitenkaan tapahdu itsestään. Pilvi vaatii uusia teknisiä taitoja, mutta muutos on ennen kaikkea kulttuurillinen. Mikäli toiminta- ja työtapoja ei uudisteta samalla kuin organisaatio siirtyy pilveen, onnistuu siirtymä vain sattumalta. Ihmisten merkitys muutoshankkeissa on massiivinen.

Suhtautuminen pilveen voi olla innostunutta tai kriittistä tai mitä tahansa siltä väliltä. Siitä huolimatta pilvi on nyt täällä jäädäkseen. Viimeistään tänä vuonna on aika pohtia pilvisiirtymän seuraavia askelia.



Mikko Torikka on työskennellyt asiantuntijaorganisaation esimies- ja johtotehtävissä yli kymmenen vuoden ajan. Hänellä laaja kokonaisnäkemus suomalaisyritysten digitalisaatiosta ja muutosten läpiviennistä, tuotekehityksestä sekä ketteristä menetelmistä. Mikko tuntee suomalaisen tietohallintokentän, ja ymmärtää hyvin teknisten ratkaisujen merkityksen liiketoiminnalle ja työntekijäkokemukselle.

Teams and SharePoint provisioning: What, why and how?

Workspace provisioning solutions are one of the most common — if not the most common — type of customization built for Office 365. In fact, custom workspace provisioning solutions have been built for pretty much as long as SharePoint as a product has existed.

The word provisioning means automatic creation and configuration of something (in our case workspaces) instead of a person doing all the work manually. And by workspaces we mean places for collaboration, such as Teams teams and SharePoint Online sites.

If we recall what the situation was in the cloud a couple of years ago, we can remember that we were still very much focused on provisioning SharePoint Online sites. At the time, it was more about getting customers to move away from classic SharePoint sites, and building provisioning solutions that targeted the new beautiful modern team and communication sites instead.

However, ever since the release of Microsoft Teams and it gaining enormous momentum and popularity, the balance has shifted more and more towards building solutions specifically for provisioning teams. SharePoint still has its well-earned place in this story, though — especially the modern team sites that are connected to the Teams teams via the underlying Office 365 groups.

There are so many things I can tell you about provisioning. This blog post aims to clarify the meaning and benefits of workspace provisioning solutions to those who are not yet that familiar with the topic, and explain why there is no one-size-fits-all solution to the problem.

 

Why do I need automated workspace provisioning?

There are several reasons why organizations might want to invest in a custom workspace provisioning solution. People in different roles can benefit from it, and the reasons depend on who do you ask.

 

Ain’t nobody got time for that!

Let’s look at things from an admin’s perspective first. Whenever a user creates a Planner plan, a modern SharePoint Online team site, or a Teams team, an Office 365 group is created in the background and added to Azure AD. That group then connects all those different services and assets for the group members to use in their collaboration.

Because creating Office 365 groups can happen in so many different ways, and from so many different places, it can quickly start to feel like things are getting out of control. Not all users necessarily even realize that such a group gets created whenever they, for example, create a new plan.

And it is not just about the number of groups but also about the settings in those groups. How is the group named? What kind of collaboration happens in the group? Is it used for confidential internal information or for collaborating with employees from other organizations? What kind of basic security settings are chosen? Should external sharing be limited or allowed? Et cetera.

Because of these concerns, organizations typically flip the switch and disable Office 365 group creation for everyone. Then they allow it via a security group to a small set of admins who know how things should be done, and that way take back control. Those admins are tasked to create groups for other users by following documented steps carefully — if they see the user’s request agreeable. But really, don’t those admins have better things to do? Is this the kind of work they are being paid for?

 

OK, that joke got old very fast

Automated workspace provisioning can also greatly benefit end-users. Quite often, there is a need to create a lot of workspaces with similar configurations. A typical example is a project workspace.

Whenever a new project starts, a new Teams team with specific channels is created. A Planner plan is constructed for the project tasks (often the exact same base tasks for every project), and the plan is then pinned as a tab on one of the channels in Teams. A predefined sub-folder structure needs to be created for storing project-related documents on the SharePoint site document library, and it needs to be done in the way that it shows up correctly on the Files tabs in Teams. Sometimes also a separate SharePoint Online communication site needs to be created for showcasing the project to other employees in the company or to external users who may be interested in the project outcome. And this is only the tip of the iceberg.

It is a lot of work to get done by hand for every single project, and quite often you might forget to do something. Wouldn’t it be nice if you didn’t need to spend the project budget and schedule for clicking around in the UI, and instead could get to work immediately?

 

Automated provisioning pipelines to the rescue!

As I mentioned at the beginning of this blog post, an automated workspace provisioning pipeline means a process, where the workspace is created and configured automatically in a pre-defined way. As with many other automated processes, there are two benefits:

  • Reduces the amount of manual work. When all the steps are automated, an administrator is no longer needed to create teams or SharePoint sites in a controlled manner whenever users need them. And end-users don’t need to always do the exact same configurations for each workspace manually. Users can trigger the provisioning process themselves, and the creation and configuration of the workspace is done automatically (after a possible effortless approval step). This saves time (and hence money) for both the administrators and users to focus on the tasks that matter and can’t be as easily automated.
  • Humans make mistakes. If all teams are configured manually, possibly by a lot of different people, things can easily get set up in an unintended way. When configurations are automated, all teams and sites get created consistently and correctly.

How is it implemented?

The automated provisioning pipeline can be implemented in many different ways, and choosing the right method always depends on the customer-specific requirements. The services and tools we can use include various kinds of forms, bots, SPFx solutions, custom web sites or APIs, Azure Functions, Logic Apps, WebJobs, the PnP Provisioning Engine, SharePoint site designs… the list goes on!

So far, I’ve built at least a dozen different provisioning solutions for Teams and SharePoint, and no two customers have ever wanted the exact same functionality. Customers always have their own internal working cultures, business-specific needs, challenges, and priorities. For some, a very light-weight solution with simple tweaks is enough, while some want very thorough and fully automated processes. This is most likely the reason why this kind of a controlled automatic provisioning process doesn’t exist out of the box. One size just doesn’t fit all.

The solution needs to be built in a way that it fulfills the requirements, is pleasant to use, and doesn’t annoy any of the different types of users involved. The implementation has to be done following the best practices when it comes to, for example, security, while at the same time keeping the customer’s money in mind. Typically there are several ways for accomplishing the desired outcome; hence, I always think:

  • Which one of the possible options is the quickest for implementing the feature (lowest implementation cost)?
  • Which one is the most cost-effective way in the long term? Let’s not do things in a quick and easy way if it means high licensing costs or Azure bills in the future.

Is it for me?

I may be a little bit strange consultant/developer/architect. I genuinely think what is the best solution for the customer also from their money perspective. And I don’t mean just by considering the implementation and maintenance costs I mentioned above. I also evaluate, does the solution create high enough return of interest to justify the investment for the customer?
How many workspaces are created per week, per month, per year?

  • How many different users need to create workspaces?
  • How complex are those workspaces? How long does it take for each of those different users to create them and set them up the way they should be set up?
  • How much time (and hence money) could be saved if the workspace creation was automated and the end-user only needed to fill in a simple order form? How much does it make in a year?
  • What about in three or five years which is still a very realistic lifespan for a provisioning solution.
  • What is currently the customer’s biggest problem related to workspaces; does the provisioning solution help to solve it?

Sometimes, especially for smaller organizations, it may be enough if we take advantage of the out of the box features and offer some high-quality training for the users. However, when the number of users increases, the gained control and time saved can easily justify — and in time, exceed — the initial investment to the workspace provisioning solution. There is always an opportunity cost. Could you spend this time making more money or creating more value for the company by doing something else than setting up yet another Teams workspace?

 

Want to know more?

This blog post possibly marks the beginning of some new content around this topic. In the meanwhile, I’ll be speaking about this topic in-depth at the Global Microsoft 365 Developer Bootcamp in Helsinki in November, and the European SharePoint, Office 365 & Azure Conference in December. If you want to know more about how to choose the different tools for provisioning Teams and related SharePoint sites based on customer requirements, see you in Prague!



Microsoft MVP. Laura työskentelee Sulavalla sovelluskehittäjänä. Laura on työskennellyt SharePoint-ympäristöjen parissa vuodesta 2011 lähtien, keskittyen räätälöintien ja integraatioiden toteutukseen sekä ympäristöjen ylläpitoon. Nykyään Laura toteuttaa ratkaisuja myös O365- ja Azure-ympäristöihin, rakentaen monipuolisesti niin erilaisia räätälöintejä, integraatioita kuin kokonaisia web applikaatioita.

Windows Autopilotilla työasemat käyttöön nopeammin, halvemmin, helpommin ja joustavammin – What’s the catch?

Nopea, halpa ja hyvä ovat perinteiset valinnat, joista vain kahden ajatellaan toteutuvan samaan aikaan. Windows Autopilotin kohdalla voin väittää, että kaikki kolme ovat mahdollisia. Otsikossa mainitsemani joustavuus on neljäs adjektiivi, joka kuvaa Autopilotia erittäin hyvin.

Autopilot tuo puhelinmaailmasta tutun nopean käyttöönoton työasemiin. Kuten puhelimissa, työasema voidaan antaa suoraan kaupasta käyttäjälle, sillä laite on suoraan paketista vedettynä automaattisen konfiguraation avulla käyttövalmis noin 30–60 minuutissa. Näin laitteen toimitus käyttäjille nopeutuu huomattavasti, säästäen aikaa ja rahaa.

Autopilot deploy

Rahan säästöstä puheen ollen, Autopilot tulee paljon halvemmaksi verrattuna traditionaalisen imagen eli levykuvan tekoon. Image kun joudutaan kustomoimaan jokaiselle laitteelle erikseen, mikä vie valtavasti aikaa niin konfiguroinnissa kuin testauksessa. Autopilotilla laitekohtaiselle konfiguroinnille ei ole tarvetta, sillä iso osa kaupasta ostettavista uusista Windows 10 -laitteista toimii Autopilotin kanssa. Normaalista ylläpidosta kuten ohjelmien jakelusta ja työasemien asetuksien muuttamisesta ei tietysti pääse eroon, eikä Autopilotilla tähän suuntaan ole tarkoitus mennäkään.

Nopeus ja konfiguroinnin vähentyminen helpottavat huomattavasti IT-väen työtä. Ylläpitäjänä voit keskittyä työasemien paimentamisen sijaan tuottavampiin tehtäviin, kuten infrastruktuurin kehittämiseen ja tietoturvan parantamiseen. Laitteiden pilvihallinta mahdollistaa raskaiden ylläpito- ja hallintajärjestelmien vähentämisen organisaatiossa, tuoden mahtavan kerrannaisvaikutuksen säästöihin ja helppouteen.

Nämä kaikki asiat saadaan tehtyä kaupan päälle hyvin joustavasti. Autopilot voidaan ottaa suoraan nykyisten järjestelmien rinnalle kokeilumielessä – nykyisiä paikallisia järjestelmiä häiritsemättä. Testikäyttöönotto onnistuu hyvin nopeasti, joten tämä kannattaa ehdottomasti ottaa kokeiluun. Lupaan, että yllätytte positiivisesti! Imagesta luopumalla IT pystyy tarjoamaan käyttäjille enemmän laitevaihtoehtoja nopeasti ja joustavasti liiketoiminnan tarpeiden muuttuessa. Uusien laitemallien käyttöönotto ja testaus tapahtuu päivissä, ei viikoissa.

No onko tässä jokin juju? Ei oikeastaan, sillä työasemien pilvihallittavuus kehittyy huimaa vauhtia. Viimeisen vuoden sisään on tullut mahtava määrä uusia ominaisuuksia laitteiden hallittavuuteen ja tahti vaan jatkuu. Isoja puutteita ei mielestäni ole. Pieniä voi toki tulla vastaan, mutta nopealla pilotoinnilla nekin saadaan selville.

Lähtölaukaisun ja vinkit Autopilotin käyttöönottoon saat liittymällä mukaan webinaariimme tiistaina 27.8. klo 9–9.30. Käymme käytännön avulla läpi Autopilotin käyttöönoton ja konfiguroinnin, sekä kerromme sen uusista ominaisuuksista. Laitehallinnan tulevaisuus on täällä, nyt kannattaa liittyä mukaan!



Consultant. Keskityn Sulavalla Office ja Microsoft 365 -ratkaisuihin sekä Azureen. Sähköposti: lauri.jokioja@sulava.com