Blog Archives

Hoe een verzekeraar datavirtualisatie aanpakt

Jungle tree roots 2
Achmea gaat datajungle te lijf met een model en veel denkwerk.

Lisa Esselink implementeert bij Achmea datavirtualisatie. De verzekeringsmaatschappij ontwikkelde een datamodel en probeert daarmee petabytes aan productiedata betekenis te geven. Het vergt veel denkwerk om uit de datajungle feitelijke antwoorden op conceptuele antwoorden te krijgen, legt ze uit.

Bij Achmea krijgen we heel wat voor onze kiezen. We verwerken dagelijks een immense hoeveelheid data die bovendien de komende drie jaar verviervoudigt. Met de inzet van slimme technologie willen wij de data-explosie optimaal gebruiken, terwijl we onze mensen en middelen minimaal belasten.
Datavirtualisatie moet uitkomst bieden. Daarbij koppelen we de datavraag los van het data-aanbod. Dat klinkt cryptisch en dat is het ook wel. De grootste uitdaging zit hem in het betekenis geven aan beschikbare productiedata. Dit doen we aan de hand van een conceptueel datamodel dat IBM zo’n vijftien jaar geleden ontwikkelde. Wij hebben het doorontwikkeld, zodat het past bij een verzekeringsmaatschappij als de onze.

Datamodel
In het model bepaalden we zo’n 1500 verschillende fysieke datasoorten (zoals naam, verzekeringsproduct en ingangsdatum), hun attributen (zoals voornaam, achternaam, productcode, dag, maand en jaar) en de waarden die daarmee samenhangen. Ook identificeerden we onderlinge samenhang.

Alle beschikbare en nieuwe databronnen delen we in volgens dit datamodel. Fysieke data zetten we daarbij om in conceptuele informatie waarnaar je inhoudelijk kunt zoeken. Soms lukt het pas na gesprekken met de diverse stakeholders om de betekenis en exacte bronlocatie van data te bepalen. Het proces hebben we inmiddels ingericht. Van onze externe dataleveranciers verlangen wij hetzelfde: ook zij moeten aangeven wat de betekenis, de onderlinge samenhang en de kwaliteit van hun data is.
De volgende stap is de ontwikkeling van de intelligentie die over de talloze databronnen heen speurt in de waarden. Dit is een belangrijke voorwaarde voor datavirtualisatie. De toepassing, die we nog moeten bouwen, maakt de vertaalslag tussen een conceptuele vraag van de gebruiker en het feitelijke antwoord daarop. Op deze manier krijgen we meer grip op data. Een vraag als “Welke klanten uit Nijmegen hebben een autoverzekering?” levert dan een concrete lijst met namen of klantnummers op.

Voordelen
Wat levert deze manier van datavirtualisatie ons op? Veel. Allereerst verbetert de effectiviteit en productiviteit van onze medewerkers. Zij kunnen met minder mensen meer werk verrichten dat bovendien meer toegevoegde waarde heeft. Ze beseffen dat het doel is om de juiste informatie te achterhalen, ongeacht het systeem dat zij hiervoor inzetten.
Daarnaast is het niet langer nodig om productiedata te kopiëren, bijvoorbeeld naar een datawarehouse. Het groeiend aantal petabytes dat we nu genereren, moeten we niet onnodig verdubbelen of zelfs verdrievoudigen. Dit zorgt namelijk voor hoge kosten voor dataopslag en -beheer en leidt tot synchronisatieproblemen. Analyses vinden on the fly plaats op de productiedata zelf. Vragen en bronnen zijn daardoor herbruikbaar.
Met datavirtualisatie hebben we bovendien meer controle over de datakwaliteit. De kwaliteit van de productiedata is een goede indicatie van de kwaliteit van de gehele keten. Loopt de kwaliteit terug, dan kunnen we in een vroeg stadium het probleem achterhalen en verhelpen. Dat scheelt later veel uitzoek- en herstelwerk en frustratie bij klanten en medewerkers.
Ten slotte helpt datavirtualisatie ons bij de implementatie van nieuwe ontwikkelingen, zoals de Algemene Verordening Gegevensbescherming (AVG), de sanctiewetgeving en het recht om te worden vergeten.

Denkwerk
De bovengenoemde transitie van een systeemgedreven naar een datagedreven organisatie is bij Achmea in volle gang. Het datamodel hebben we inmiddels ontwikkeld, het proces ingericht. Nu maken we ons op voor de verdere uitvoering van de datavirtualisatie, de ontwikkeling van de slimme toepassing die de talloze bronnen afspeurt.
Het vervolgtraject vergt vooral denkwerk van creatieve geesten die conceptueel meedenken over de betekenis van data binnen het domein van een verzekeringsmaatschappij. Dat zal altijd mensenwerk blijven: computers kunnen immers niet conceptueel denken.

Meer informatie over datavirtualisatie is te vinden in de whitepaper “Agile data integratie:van (big)data naar real time informatie”. Vraag deze aan bij Quant ICT Group BV, www.quant-ict.nl, info@quant-ict.nl, tel: 088-0882500

Source: www.webwereld.nl, Lisa Esselink is senior data architect bij Achmea

Expert advice for companies hesitant to implement virtualization

file 63 blue_lightbulb
For enterprise IT, evaluating different virtualization options can be a challenge, especially for organizations that don’t have any experience with it. That’s no reason to shy away from the technology, though, as virtualization is a great way to manage resources and reduce costs. To get some expert insight on the matter, we caught up with Matthew Portnoy, who literally wrote the book on virtualization.

Published on Aug. 29, 2016, the second edition of Virtualization Essentials contains an in-depth explanation of virtualization, as well as chapters on hypervisors, VMs and availability. The book also covers a broad range of processes, such as managing CPUs, memory, storage and networking for VMs. Here, Matthew Portnoy answers questions about virtualization basics and gives advice to those looking to implement virtualization.

What are the advantages of virtualization? Are there disadvantages?
Matthew Portnoy: The advantages of virtualization are still the same as they were at the beginning — more efficient and reliable use of resources at lower costs. With virtualization moving into other areas of the data center, such as storage and networking, and the addition of virtual appliances — load balancers, VPNs [virtual private networks], firewalls — costs are permanently being driven down and efficiencies are still improving.

If there’s a disadvantage to virtualization, I would say it’s also still the same as the initial challenges: that a poorly planned deployment will perform poorly. That might be said about physical deployments, as well, though virtual infrastructures often mask issues that might be more obvious in a physical deployment. One common example is not providing enough I/O for storage requirements, though users now allocate enough memory and CPU resources, which was not always the case.

What are the biggest misconceptions regarding virtualization?
Portnoy: Virtualization is not a panacea for bad practices. You have to pay as much attention to resources in the virtual world as you do in the physical. You can architect and deploy efficient, performant, highly available and secure virtual environments, but it doesn’t just happen. You have to understand the product you are working with, know what its limitations and benefits are and act accordingly.

The mindsets that used to limit which applications could be virtualized are mostly gone now via a combination of maturing administrators, more capable hardware and experience. There are things that you can take advantage of in the virtual environment that can’t be duplicated in the physical world — page sharing, for example, or new security models in virtual networking — that still make people hesitant or skeptical. But a well-deployed virtual environment is still usually less expensive — per workload — more available, more manageable and more secure than their physical counterparts.

What types of organizations are more likely to implement virtualization?
Portnoy: At this time, there are no organizations that couldn’t implement virtualization if they choose to. In certain industries, there are use cases that might drive organizations to virtualize sooner — healthcare providers and virtual desktops come to mind. Today, even smaller companies probably have some virtualization in their IT departments whether they know it or not.

One early driver was that VMware could provide High Availability to workloads on a cluster without any additional hardware or software. Organizations could get better uptime merely by being on the platform, whereas in the physical environment, those unprotected workloads would be prone to both planned and unplanned downtime.

What steps should companies take when evaluating virtualization products?
Portnoy: Like with other products, the best questions to ask are: What problem am I trying to solve? What is the cost of trying to solve this? What will it cost me if I do nothing? What are the transformational effects and costs on the organization of deploying this particular platform?

I often heard that VMware [was] expensive, but it solved certain issues for companies and returned enough value in a short enough time to make it an easy choice for many people. If Hyper-V solves the issue at a lower price and the feature differences are not relevant, well, that’s a good answer. Nothing beats kicking the tires, so if you have the time, download the products and either compare them using your use cases or have a trusted partner assist your efforts.

How can IT best partner with the C-suite and other departments to evaluate virtualization products?
Portnoy: It comes back to the value IT is providing to the business. Initially, virtualization drove huge hardware costs out of the data center while increasing availability and decreasing deployment times. This allowed companies to provide a more stable platform for their applications and allowed them to roll out new applications much faster, decreasing time to market for certain corporate initiatives.

Virtualization provides some really interesting disaster recovery products, again, at lower deployment costs and lower operational costs than traditional models. In areas prone to natural disasters — hurricanes, tornados, snowstorms and so on — virtual platforms offered business continuance in the event of [a] disaster at a lower barrier to entry. New technologies like long distance vMotion, [which offers] the capability to migrate a running VM across continental distances without interruption, offer other possibilities. Virtual networking can significantly improve environment security, which is an important topic for any public-facing company today.

What are the top challenges companies face when trying to implement virtualization?
Portnoy: The technology itself is fairly mature today, so much of the challenge is in the people side of the equation. Change means unknown, and unknown is uncomfortable, and uncomfortable and unknown are two words that application owners try to stay far away from. Education of the executive and application owners is probably the single largest way to smooth that transition. Once they understand the value that virtualization provides, they are usually proponents of the implementation.

For application owners, focusing on how virtualization can help them mitigate risk with higher availability, improve testing and quality assurance through VM cloning, and improve performance with dynamic server upgrades — without incurring downtime — are all compelling reasons.

Executives are looking to be more agile, more cost effective and to protect the interests of their company. Virtualization provides these benefits as well.

How do you recommend balancing costs with the desire to have the latest technology?
Portnoy: If everyone had unlimited resources … But, seriously, cost is the practicality that drives most projects. If the latest technology provides a solution to an acute problem that needs to be solved, then, usually, cost is no longer the gating factor. But that is not typical.

It still comes back to what is the value that can be provided with a platform, and is the problem it solves going to be worth the money that is spent. Project dollars are competed for in most organizations, and unless there is a strong case for deploying a particular product, those funds can quickly find another home.

Are you interested in Virtualization of your IT Environment? Contact Quant ICT Group, www.quant-ict.nl, info@quant-ict.nl, tel: +31880882500

Source: TechTarget, Ryann Burnett

Big data too big to ignore

file 62 Titanic
De wereld wordt overspoeld met gegevens; internetgebruikers laten met iedere muisklik of ‘tweet’ een klein beetje meer van zichzelf zien; GPS-ontvangers en andere sensoren worden aan steeds meer apparaten en producten toegevoegd om geautomatiseerd gegevens te verzamelen; en transacties worden op een steeds gedetailleerder niveau vastgelegd. Deze ontwikkeling biedt organisaties ongekende mogelijkheden om waardevolle informatie over klant, markt en product te benutten. Maximale waarde uit deze gegevens wordt echter pas behaald als organisaties in zowel technische als organisatorische zin in staat zijn zettabytes en petabytes aan data daadwerkelijk in te zetten voor het behalen van de strategische voordelen.

De vooruitzichten van Big Data zijn veelbelovend, maar een integrale methodiek om optimaal gebruik te maken van de door Big Data geboden mogelijkheden bevindt zich nog in een ontwikkelingsfase. Per organisatie en vooral per vraagstuk dient een passende oplossing ontwikkeld te worden waarbij de behoefte van de organisatie leidend is. Dit maakt de inzet wenselijk van experts met kennis van het gehele transformatieproces: van data naar informatie naar domeinkennis tot aan wijsheid (= beslissingen).

De tijd is gekomen voor alle organisaties om na te denken over de strategische inzet van (Big) Data. Daarin onderscheiden we twee varianten. Ten eerste is er de radicale variant, een volledig ‘data driven’ organisatie, die met name geschikt is voor start-ups of bij strategische heroriëntaties. Big Data wordt in dat geval de centrale component in de bedrijfsvoering. De tweede variant is de geleidelijkere variant, waarbij Big Data-concepten een noodzakelijke aanvulling zijn op reeds bestaande BI-infrastructuur en invulling geven aan de strategische behoefte aan informatie.

Voor de meeste bestaande bedrijven zal de geleidelijke variant geschikt zijn. Uit de huidige omgeving kunnen de relevante gegevens worden geëxtraheerd en gecombineerd met andere tot nu toe ontoegankelijke bronnen. De Big Data-oplossingen worden geleidelijk geïntegreerd met de rest van de systemen. Dit biedt organisaties de mogelijkheid door middel van een geleidelijke uitbouw steeds meer strategische voordelen te behalen. Let wel, bij voorkeur net een stapje eerder dan de concurrent en met inachtneming van alle risico’s en uitdagingen.

Bent u er klaar voor om grip op uw Big Data te krijgen? Neem contact op met Quant ICT Group, www.quant-ict.nl, info@quant-ict.nl, tel: 088-0882500

Source: www.compact.nl , Drs. L.L.Aakster|Drs R.Keur

Spring is here; Time to Clean Up Your Databases

file 61 bezem en emmer
With the warmer-than-usual temperatures around most of the country, I think it’s safe to say that spring is on its way. This time of year tends to get a lot of attention for spring cleaning—which can be a good reminder to clean up your databases to ensure that you have the best data for reporting and analysis.

Database maintenance should be a priority more than once a year, but with the fast pace of today’s business world, it often gets pushed aside. That being said, here are some tips for spring cleaning your databases that can be used throughout the year to ensure optimal performance and efficiencies across your production environments.

1) Take inventory of what you have.

This may be easier said than done, especially these days, when it is so easy to spin up a database. In fact, I’ve spoken with a few customers who said that their developers will find a database that works for their needs, create it, and continue to manage it on their own—housing essential data and insight into program performance that nobody understands how to use, creating a siloed system. That said, if the specific developer responsible for building the database leaves, nobody has the knowledge or understanding of what the mystery database handles or how it works.

As you can’t manage what you don’t know, having a good understanding of what databases (and types) your team and organization uses can transform your operations. Figuring out the list of databases and providers can be a little bit like playing hide-and-go-seek when you try to track down the right information, but once you have a comprehensive list, it can make all the difference when it comes to managing your databases.

2) Test your backups.

Your backups are running, right? Good. When was the last time you tested them?

Earlier this year, GitLab suffered a database loss. While they had multiple backup processes in place, they were unable to recover a lot of data (you can read the full post-mortem on their blog here). Like GitLab showed us, even if you have backups in place, sometimes they can’t save you. And GitLab isn’t the first (or last) to experience this—it’s shocking how often this happens.

Running backups serves as an important first step in the process, but it’s equally as important to make sure that it works once it’s been run. After all, did a backup really happen if you never tested it to make sure?

3) Set standards and processes.

Every DBA has a different way to manage their databases and, combined with how often database needs change, your organization may have a set of standards and processes, but they may have not kept up with the database changes implemented within your organization.

Perhaps the easiest way to determine the appropriate standards moving forward comes from creating a taskforce. This way, you can ensure all teams are represented and there is insight into what is working—and not working. During this discussion, you can establish some standards and processes, like:

  • Parameters for deploying a new database
  • Determining which types of databases are supported by your organization
  • Insight into monitoring tools and functionality
  • Creating service-level agreements for defining and addressing issues
  • How to sunset a database and archive data

4) Put it on auto-pilot.

Lastly, don’t let your clean database efforts go to waste: Implementing a heterogeneous database-monitoring solution can ensure that, no matter how many different databases types you currently use, your policies are followed year round and you have the visibility you need to pinpoint problems in real-time, and drive better performance across your production environments.

After all, a good database-monitoring solution does more than just keep an eye on the health and performance of a database. It allows you maintain your environment throughout the year by helping you discover those rogue databases that keep popping up, verifying backups, and enforcing your team’s agreed-upon standards.

As a result, proactive maintenance, like spending time to clean up your databases, can become a more regular activity, which drives better performance now and into the future.

For more information on Database monitoring contact Quant ICT Group, www.quant-ict.nl, info@quant-ict.nl, tel: +31880882500

Source: Data Informed, Mike Kelly, Blue Medora

Three indicators that could signal database performance issues

file 60 monsters
Database performance monitoring and management tools can be used to mitigate issues and help organizations be more proactive, so they can avoid performance problems and outages.

Even the best-designed database applications experience performance degradation. No matter how well database structures are defined or SQL code is written, things can and do go wrong. And if performance problems aren’t corrected quickly, that can be detrimental to a company’s bottom line.

Times New Roman; font-size: medium;”>When database performance suffers, business processes inside organizations slow down and end users complain. But that isn’t the worst of it. If the performance of externally facing systems is bad enough, companies can lose business, as customers who get fed up waiting for applications to respond will go elsewhere.

Because the performance of database systems and applications can be affected by a variety of factors, tools that can find and fix the causes of database performance issues are vital for organizations that rely on database management systems (DBMSes) to run their mission-critical systems. And in today’s database-centric IT world, that applies to most businesses.

Types of performance issues to look for
There are many types of database performance problems, which often makes it difficult to track down the cause of individual issues. It’s possible, for example, that the database structures or application code are flawed from the beginning. Bad database design decisions and improperly coded SQL statements can result in poor performance.

Or it may be that a system was well-designed initially, but changes over time cause performance to degrade. More data, more users or different data access patterns can slow down even the best database applications. Even maintenance to a DBMS — or a lack of regularly scheduled database maintenance — can cause performance to nosedive.

The following are three important indicators that could signal database performance issues at your IT shop:

  1. Application slowdowns.The most important indication of potential database performance issues is when things that used to run fast begin to run slower. This includes online transaction processing systems used by employees or customers, or batch jobs that process data in bulk for tasks such as payroll processing and month-end reporting.It can be difficult to monitor processing workloads without database performance management tools. In that case, database administrators (DBAs) and performance analysts have to rely on other methods to detect problems — in particular, end-user complaints about issues such as application screens taking too long to load or nothing happening for a long time after information is entered into an application.
  2. System outages. When a system is down, database performance obviously is at its worst. Outages can be caused by database issues such as running out of storage space due to increasing data volumes or a resource such as a data set, partition or package being unavailable.
  3. The need for frequent hardware upgrades. Organizations that are constantly upgrading servers to larger models with more memory and storage are often candidates for database performance tuning. Tweaking database parameters, tuning SQL statements and reorganizing database objects can be much less expensive than frequently upgrading costly hardware and equipment.

On the flipside, sometimes hardware upgrades are needed to resolve database performance problems. But with the proper database monitoring and management tools, it’s possible to mitigate the upgrade costs by pinpointing the cause of the problem and identifying appropriate steps for remediating it. For example, it can be cost-effective to add more memory or implement faster storage devices to resolve I/O bottlenecks affecting a database’s performance. And doing so likely will be cheaper than replacing an entire server.

Get complete visibility and management into your database processes and system infrastructure and monitor and capture comprehensive views of overall database health, and detailed drill-downs to determine the root cause of performance bottlenecks.

For more information contact Quant ICT Group BV, ,www.quant-ict.nl, glenda@quant-ict.nl, tel:+31 880882500.

Source: TechTarget

Van data naar informatie

file 59 chaos naar orde2
Er is een groot verschil tussen data en informatie. Organisaties slaan ontzettend veel data op, bijvoorbeeld CRM data die in een partitie van een database wordt opgeslagen. Die data is op zich relevant en waardevol voor gebruikers van het CRM systeem. Maar zou het niet mooi zijn als uw CRM data – en meer specifiek de order pijplijn – wordt gebruikt als input voor het productie planning proces?

Pas wanneer data uit meerdere bronnen op intelligente wijze wordt gecombineerd, ontstaat waardevolle informatie. Gecombineerde data levert inzicht, kennis en een solide basis voor analyse, controle en voorspelling op.

Verspreide informatie
Bij de meeste organisaties staan de data verspreid over losse systemen en databases, bijvoorbeeld een ERP, CRM of Document Management systeem. Minimaal net zo groot is de hoeveelheid ongestructureerde data in Excel, Word, PDF’s soortgelijke Office applicaties. Tot slot staan de data op meerdere fysieke locaties: op gevirtualiseerde servers, netwerk drives, op PC’s of in de cloud – dus feitelijk op de fysieke server van uw cloud provider.

Snelheid en flexibiliteit
Wellicht herkenbaar voor u: er moet altijd even iets heel snel gedaan of beslist worden. Om ook een snel te nemen besluit op basis van de juiste informatie te kunnen nemen, heeft u real time inzicht nodig.

Commerciële innovatie
Voor veel organisaties verandert verkoop van ‘1 op n’ naar ‘1 op 1’. Uw klant verwacht dat u hem of haar begrijpt, de juiste informatie geeft en een aanbieding op maat doet. Om dit te kunnen waarmaken, moet u veel over uw klanten weten. Wat doen en communiceren uw klanten waar en wanneer? In welke systemen wordt dat vastgelegd en hoe kunt u deze data omzetten in bruikbare commerciële informatie? Door real time analyse bent u in staat altijd klantgericht aan te bieden.

Ook voor de ontwikkeling van nieuwe diensten of het betreden van nieuwe markten heeft u veel informatie – en dus inzicht – nodig. Door een historische analyse van alle relevante data bent u beter in staat te voorspellen welk product of dienst aan zal sluiten bij de klantvraag.

Tot kort kunnen product development en innovatie cycles worden verkort op basis van snellere feedback en het delen van relevante informatie met uw leveranciers en business partners.

Heeft u behoefte aan informatie om onder alle omstandigheden de juiste beslissingen te kunnen nemen? Informatie die snel beschikbaar moet zijn, altijd accuraat en gemakkelijk te verkrijgen? Is uw organisatie flexibel genoeg om nieuwe informatiebronnen te kunnen raadplegen? – u weet immers vandaag niet welke informatie u morgen of volgende maand nodig heeft.

Herkent u een of meer van deze vragen? In ons gratis paper “Agile data integratie: van (big) data naar real time informatie” vindt u een groot aantal praktische handvatten om snel mee aan de slag te kunnen.Vraag nu het gratis solution paper aan of neem contact met ons op. Quant ICT Group,Quant ICT Group bv,www.quant-ict.nl, glenda@quant-ict.nl, tel: 088-0882500.

What you need to know about database performance software

file 58 Information-you-need-to-know
Database performance software identifies bottlenecks and points of contention, monitors workload and throughput, and manages system and DBMS resource usage.
Ensuring that database systems perform effectively is a core requirement of modern IT management. There are several types of tools that can help database administrators and other IT professionals monitor, manage and improve the performance of databases and the applications that access them. But before you can consider whether you need database performance software, it’s important to first definestyle=”color: database performance.

At a high level, database performance can be defined as the rate at which a database management system (DBMS) supplies information to users. But to better understand what influences database performance, let’s examine the following five factors:

1.    Workload is the activity the DBMS is requested to perform, which drives the processing demands placed on the system. The workload can include a combination of transactions, batch jobs, ad hoc queries, reporting and analysis applications, database utilities and system commands. Workload can fluctuate drastically by day, hour or even minute. Sometimes it’s steady and predictable, but at other times it can spike, such as a heavy transaction workload on Black Friday for a database supporting a retailer’s e-commerce site.
2.    Throughput is a measurement of a system’s ability to process data. It’s a composite of I/O and CPU speed, and it can be affected by the parallel capabilities of the database server and the efficiency of the operating system and system software.
3.    Resources are the hardware and software tools at the disposal of the system — such as database kernel, disk space, memory, cache controllers and microcode. The performance of accessing and modifying data in the database can be improved by the proper allocation and application of resources.
4.    Optimization speeds up query performance. All types of systems can be optimized, but relational databases are unique in that query optimization is primarily accomplished internal to the DBMS. Additional factors do need to be considered as well, including SQL formulation and database parameters, to enable the database optimizer to create the most efficient access paths.
5.    Contention results when the demand for a particular system resource is high, for example, if two or more components of the workload are attempting to use a single resource in a conflicting way, such as dual updates to the same piece of data. As contention increases, throughput decreases.

So, database performance can be more accurately defined as the optimization of resource usage to increase throughput and minimize contention, enabling the largest possible workload to be processed.

What is for Sale
The market for tools can be split into three categories: The first is the DBMS vendor market, which includes IBM, Microsoft and Oracle. These companies sell software for their own DBMSs, as well as heterogeneous tools. The second category includes large ISVs and technology providers such as BMC, CA and Quest that sell database performance software as well as other categories of system software. The third category, niche database tools software vendors, includes companies that focus on database management and administration such as Bradmark Technologies, Idera and SolarWinds.

These tools are typically sold directly to the customer and licensed by individual user, by database core or the size of the server being managed. Frequently, database performance tools are bundled with the database software as part of the initial DBMS acquisition.

Database performance software comprises a significant segment of the overall IT performance management software market. It provides many benefits, and there are numerous products to choose from. Which one do you choose?

For more information on Bradmark Technologies contact Quant ICT Group bv,www.quant-ict.nl, glenda@quant-ict.nl, tel:+31 880882500.

Source: TechTarget

The power and potential of Data Virtualization

file 57 kettlebell
While over the last ten years, consumer technologies have become increasingly easier to use and more powerful, the same is not true for corporate infrastructures. The same products and technologies that came to the forefront fifteen years ago during the Y2K scare continue to be the backbone of data movement throughout the enterprise today. There is a great fear of even touching what’s in place because of the brittle nature of the hard-wired integrations and their interdependencies, and because of the huge time and effort required to make even a small change.

Generally the hype is far greater than any real potential impact for new technologies that surface, but recent examples of high profile technologies with truly high potential such as Social Media, Cloud Computing, and Big Data, all of which can bring significant benefit to your company, at least over time.

There is another “new technology,” Data Virtualization that is not as flashy, but it can bring more benefit to your business in a short time.

When you sit down to strategize creatively about where you could take your business, change your paradigm, offer new products, restructure your organization, or make any significant change, you like to dream without considering current constraints. One of those is, no doubt, the ballast of your IT infrastructure. If your infrastructure relied on agile integration software using Data Virtualization and Data Federation, you could quickly and easily access all the data you need to analyze the validity of your ideas. Whatever modification you need to make to your internal and external data access and delivery capabilities can actually be put in place in typically 90% less time and cost than legacy infrastructure.

You can make better decisions, make your customers happier, interact more easily with your business partners, and ensure security of your data. You shed the impediments of current data integration platforms. You have the infrastructure to support a truly agile business model, and save plenty of money and tedious hassles that current infrastructures pose.

Adopting Data Federation and Virtualization will tremendously reduce your Tech Debt, streamline your data flows to directly address the business needs and reduce the maintenance you have been dealing with on the extraneous staging databases. Most of all, it will unfetter your business to be a responsive and agile company.

For more information on what Data Virtualization can bring to your business contact Quant ICT Group BV,www.quant-ict.nl, glenda@quant-ict.nl, tel:+31 880882500.

Database Monitoring; Ik wil Retro!

file 56 retro-media-brush-icons-pack-photoshop-brushes
Informatie – en daarmee informatietechnologie – zijn voor de meeste organisaties uitgegroeid tot een kritieke succesfactor. Als gevolg hiervan is de rol van de ICT afdeling in de loop der jaren veranderd van een ondersteunende naar volwassen bedrijfsfunctie die moet bijdragen aan de waarde van de onderneming.

Dit betekent voor ICT afdelingen ook meer verantwoordelijkheid en zichtbaarheid. Mede door trends als cloud computing en de consumerization of ICT worden de verwachtingen vanuit de organisatie waaraan moet worden voldaan – of liefst zelfs overtroffen – steeds hoger.

Zo worden er steeds vernieuwende producten bedacht en ontworpen om deze steeds groter wordende stroom aan informatie in kaart te brengen. Door continue bewaking (proactieve database monitoring) van de databases en diverse geautomatiseerde processen worden problemen voorkomen of in een zeer vroeg stadium ontdekt en opgelost.

Natuurlijk zijn er genoeg producten op de markt om uit te kiezen, maar wat wil jij?

    • Wil je alle informatie voor forensic analysis kunnen gebruiken, op ieder niveau
    • Wil je Alle SQL’s kunnen inzien
    • Wil je Trendanalyses kunnen uitvoeren
    • Wil je oo recente gebeurtenissen kunnen bekijken
    • Wil je een duidelijk dashboard
    • Wil je snel en effectief data kunnen analyseren
    • Wil je Flexibiliteit
    • Wil je geen limieten hebben voor analyses

Met meer dan 30 jaar bewezen database software ervaring is Surveillance DB helemaal retro.

Wat is retro?
Retro staat voor het teruggrijpen op producten en ontwerpen uit het verleden bij ontwerpen van diverse zaken of lanceren van producten: de vormgeving van nieuwe producten is niet zozeer een kopie van een eerder product, doch is erdoor geïnspireerd en verwijst ernaar terug. Kwaliteit van toen met een hip jasje.

Tegenwoordig worden er mooie producten op de markt gezet met de nieuwste snufjes. Helaas gaan deze alleen vaak minder lang mee dan hun voorgangers. Met Surveillance DB heeft u niet alleen de nieuwste snufjes maar de kwaliteit van toen. Dus:

      • Wees downtime voor
      • Bespaar op resources
      • Werk met realtime informatie
      • Zet allerts in voor eventmanagement
      • Kijk ook naar gebeurtenissen op korte termijn met Flasback
      • Maak trendanalyses met datarepository

Ook geinteresseerd in retro voor uw databases? Voor meer informatie www.quant-ict.nl, email glenda@quant-ict.nl, tel: 088-0882500.

Keep IT Simple

file 55 keep_-it_simple1
Voor veel organisaties verandert verkoop van ‘1 op n’ naar ‘1 op 1’. Uw klant verwacht dat u hem of haar begrijpt, de juiste informatie geeft en een aanbieding op maat doet. Om dit te kunnen waarmaken, moet u veel over uw klanten weten. Wat doen en communiceren uw klanten waar en wanneer? In welke systemen wordt dat vastgelegd en hoe kunt u deze data omzetten in bruikbare commerciële informatie? Door real time analyse bent u in staat altijd klantgericht aan te bieden.

Organisaties moeten niet meer kijken naar de functionaliteit van hun huidige integratie oplossing. Zij moeten zich afvragen wat daadwerkelijk nodig is om betrouwbare informatie op een slimme en snelle manier aan te leveren, zonder te hoeven denken in restricties.

Datavirtualisatie zorgt voor een data-abstractie laag waarmee uw organisatie snel en direct toegang heeft tot data uit vele afzonderlijke bronnen, zonder dat u deze fysiek hoeft te verplaatsen. Data uit meerdere heterogene bronnen worden geopend, gecombineerd en gefedereerd, zodat een `virtuele’ weergave of database ontstaat. Deze gefedereerde data worden in real-time geprofileerd, gecleansd, getransformeerd, gemaskeerd en afgeleverd. Hierdoor verkrijgt uw organisatie direct de betrouwbare data die zij nodig heeft.

Door inzetten van datavirtualisatie kunt u 80-90% van uw huidige integratiekosten besparen. Denk hierbij aan:

  • besparen op fysieke opslag van staging data
  • besparen op hardware ten behoeve van data opslag
  • besparen op licenties voor extra Databases
  • besparen op het ontwikkelen bouwen en onderhouden van Data Warehouses
  • besparen op het bouwen van koppelingen tussen de verschillende databronnen

Waarom moeilijk doen als het makkelijk kan. Bent u op zoek naar een geïntegreerde oplossing die de volledige behoefte aan agile data integratie afdekt? Neem contact op met Quant ICT Group en laat u inspireren. Quant ICT Group, www.quant-ict.nl, email glenda@quant-ict.nl, tel:088-0882500

1 2 3 6