Mer

Kategorier for Torque Cat i CartoDB


Jeg har noen trafikkdata som jeg vil vise med Torque Cat i CartoDB. Dataene jeg har inneholder daglige trafikktall fra 300 hovedstasjoner rundt Island i 1 år.

Det jeg vil vise er et kart som inneholder en tidsklipp slik at jeg kan se trafikkmengden på hver stasjon på en gitt dag i hele året. Rekkeviddeverdiene for trafikken er 0 ~ 5000 biler / dag. Jeg vil dele trafikken i 5 kategorier og vise dem som en boble med forskjellige størrelser og farger:

>4000 3000-3999 2000-2999 1000-1999 500-999 <500

Jeg kan ikke få disse kategoriene til å vises slik jeg vil ha dem. Jeg får bare boblene for <500 kategorien. Jeg gjetter at denmoment-aggregeringsfunksjonhar noe med dette å gjøre. Kan noen hjelpe meg?

/ ** torque_cat visualization * / Map {-torque-frame-count: 365; -moment-animasjon-varighet: 30; -torque-time-attribute: "date"; -moment-aggregeringsfunksjon: "rund (gjennomsnitt (trafikk))"; -moment-oppløsning: 2; -moment-data-aggregering: lineær; } #final_test {comp-op: source-over; markør-fyll-opasitet: 0,9; markør-linje-farge: #FFF; markør-linjebredde: 1,5; markør-linje-opasitet: 1; markør-type: ellipse; markørbredde: 6; // marker-fill: # FF9900; } #final_test [value> = 4000] {marker-fill: # FFCC00; markørbredde: 19,0; } #final_test [verdi <4000] {marker-fill: # 229A00; markørbredde: 17,0; } #final_test [verdi <3000] {marker-fill: # A53ED5; markørbredde: 15,0; } #final_test [verdi <2000] {marker-fill: # 5CA2D1; markørbredde: 13,0; } #final_test [verdi <1000] {marker-fill: # F11810; markørbredde: 11,0; } #final_test [verdi <500] {marker-fill: # 5CA2D1; markørbredde: 9,0; }

For å gjøre det, må du generere en ekstra kolonne med kategoriene og bruke kategoriviseren.

Under panseret bruker den modus (statistikkfunksjon) for å vite i hvilken kategori punktaggregeringen faller, og bruke en ekstra farge for hver.

Dreiemoment tillater ikke verdier over 255 fordi det bruker en byte til å overføre verdien. Du kan skalere dataene dine i-moment-aggregeringsfunksjon, som i din runde (gjennomsnitt (trafikk / 500)) slik at du får trinn på 500.


Kategori: Høst2016

Siden den første iterasjonen i 1984 med Charles Hulls stereolithografi, har prosessen med additiv produksjon produsert betydelige teknologiske grenser (Ishengoma, 2014). Med fremskritt innen både kapasitet og kostnadseffektivitet, har 3D-utskrift nylig vokst enormt i popularitet og praktisk bruk. Nettsteder som Thingiverse og Tinkercad gir alle som har tilgang til en 3D-skriver (som blir mer og mer overkommelige) for å lage håndgripelige modeller av alt og alt.

Da jeg oppdaget 3D-skriverne ved Ryerson & # 8217s Digital Media Experience (DME) -laboratorium, bestemte jeg meg for å 3D-skrive ut modeller av interessante kanadiske topografier, velge studieområder fra østkysten (Nova Scotia), vestkysten (Alberta) og det sentrale Canada (sørlige Ontario). Disse stedene viser rekke topografier og landtyper strødd over Canada, og modellene kan gi praktisk bruk ved siden av deres estetiske lokke ved å identifisere nøkkelfunksjoner i de forskjellige høydene på scenen.

Det første trinnet i denne prosessen var å lære å 3D-utskrift. DME har tre forskjellige 3D-skrivere, som alle bruker en additiv lagprosess. En additiv prosess smelter materialer og bruker dem tynt lag for tynt lag for å skape et sluttlig fysisk produkt. En rekke materialer kan brukes i additivlag, inkludert plastfilamenter som polymelkesyre (PLA) (plastfilament) og akrylnitrilbutadienstyren (ABS), eller nylonfilamenter. Etter en kort opplæring i DME om 3D-utskriftsprosessen valgte jeg å bruke deres Lulzbot TAZ, 3D-skriveren som har det største overflatearealet. TAZ er kompatibel med ABS- eller PLA-filament med en diameter på 1,75 mm. Jeg bestemte meg for hvitt PLA-filament, da det gir en glatt overflate og smelter ved lavere temperatur, med den hvite fargen som er lett å male over.

Lulzbot TAZ

Det neste trinnet var å skaffe dataene i nødvendig format. TAZ krever at den digitale 3D-modellen skal være i STL (STereoLithography) -format. To nettsteder var avgjørende for opprettelsen av STL-filene mine. Den første var GeoGratis Geospatial Data Extraction. Dette National Resources Canada-nettstedet tilbyr gratis geografisk datautvinning, slik at brukeren kan velge data om høyde (DSM eller DEM) og arealbruk i et område i Canada. Prosessen med å laste ned dataene var rask og smertefri, og snart hadde jeg detaljert geospatial informasjon på nettstedene jeg modellerte.

GeoGratis Geospatial Data Extraction

En utfordring var fortsatt til tross for at det var data om høyde og arealbruk og # 8211 opprettet en STL-fil. Mens jeg undersøkte hvordan jeg gjorde dette, kom jeg over nettverktøyet med åpen kildekode kalt Terrain2STL på et visualiseringsnettsted kalt jthatch.com. Dette verktøyet lar brukeren velge et område på et Google-basiskart, og trekker deretter ut høydedataene for dette området fra Consortium for Spatial Information & # 8217 s SRTM 90m Digital Elevation Database, opprinnelig produsert av NASA. Terrain2STL lar brukerne øke den vertikale skaleringen (opptil fire ganger) for å overdrive høyde, senke høyden på havnivået for vekt og heve bunnhøyden til den produserte modellen i et valgt område som varierer i størrelse fra noen få byer blokker til en hel nasjonalpark.

Det første området jeg valgte var Charleston Lake i sørlige Ontario. Å være en sørlig del av det kanadiske skjoldet, ble denne innsjøen skapt av isbreer som arrte jordens overflate. Den vertikale skaleringen ble satt til fire, da scenen ikke har mye høydeendring.

Når jeg lastet ned STL, tok jeg filen inn i Windows 10 & # 8217 s 3D Builder-applikasjon for å slanke basen av modellen. 3D-modelleringsprogrammet Cura ble deretter brukt til å overdrive den vertikale skaleringen ytterligere til 6 ganger, og for å laste opp modellen til TAZ. Når glødetråden var lastet og skriveren varmet opp, var den klar til utskrift. Denne første modellen tok rundt 5 timer, og gikk heldigvis feilfritt.

Cape Breton, Nova Scotia ble valgt for østkystmodellen. Mens dette nettstedet har litt mer høydeendring enn Charleston Lake, trengte det fortsatt å ha 4 ganger vertikal overdrivelse for å vise områdets høyder. Denne utskriften tok omtrent 4 og en halv time.

Til slutt valgte jeg Banff, Alberta som min siste scene. Dette området viser inngangen til Banff nasjonalpark fra Calgary. Ingen vertikal skalering var nødvendig for dette området. Denne utskriften tok omtrent 5 og en halv time.

Når alle modellene ble skrevet ut, var det på tide å legge til visuell vekt. Dette ble gjort ved å male hver modell med akrylmaling, bruke lysere grønne nyanser for høye områder til mørkere grønne nyanser for områder med lav høyde og blå for vann. Dataene hentet fra GeoGratis ble brukt som referanse i is-prosessen. Selv om jeg utforsket ideen om å inkludere avgrensninger av stier, løypehoder, veier, jernbaner og andre funksjoner, bestemte jeg meg for at de ville gjøre modellene for travle. Imidlertid kan fremtidige iterasjoner av slike 3D-modeller utformes for å vise spesifikke arealbruk og funksjoner for mer praktiske formål.

Charleston Lake, Ontario Cape Breton, Nova Scotia Banff, Alberta

3D-modeller er en morsom og tiltalende måte å visuelle topografier på. Det er noe uforklarlig tilfredsstillende ved å ha en håndgripelig fremstilling av jorden, og anvendeligheten av 3D-geografiske modeller for analyse bør ikke overses.

GeoGratis Geospatial Data Extraction. (n.d.). Hentet 28. november 2016 fra http://www.geogratis.gc.ca/site/eng/extraction

Ishengoma, F. R., og amp Mtaho, A. B. (2014). 3D-utskrift: utviklingslandets perspektiver. International Journal of Computer Applications, 104(11), 30-34. doi: 10.5120 / 18249-9329

Terrain2STL Lag STL-modeller av jordens overflate. (n.d.). Hentet 28. november 2016 fra http://jthatch.com/Terrain2STL/


Handelskonsekvenser Cinchona-data i Voyant Tools

Jeg jobber med et abstrakt for ESEH i Frankrike neste sommer. Jeg planlegger å fokusere på rollen som en industriist, J.E. Howard, i å støtte innsatsen til britiske regjeringsansatte og økonomiske botanikere for å etablere cinchona-plantasjer i Asia. Jeg har gjort mye arkivforskning om dette emnet, men jeg trodde det ville være interessant å se hva jeg kunne finne i Trading Consequences-databasen. Location Cloud Visualization viser tydelig den geografiske overføringen av cinchona til India og Ceylon, men jeg trengte å grave ned forbi våre webvisualiseringer for å se hva databasen har å si om en bestemt person. For å gjøre dette, hentet jeg ut hver setning som nevner varecinchona i Corpus Trading Consequences, bestilte dem etter årstall og eksporterte en tekstfil fra databasen. Dette gir en fil med 3762 setninger som nevner cinchona.

Å laste opp disse dataene i Voyant Tools gjør det enkelt å utforske noen av mønstrene i teksten når de endres i løpet av det nittende århundre. For eksempel kan vi se den opprinnelige betydningen av India (som vil omfatte omtaler av East India Company) og den økende betydningen av Ceylon og Java etter hvert som århundret gikk. Det er også bemerkelsesverdig at Peru og Peruansk var relativt mindre viktige steder i disse britiske regjeringsdokumentene.

Ved hjelp av det samme verktøyet kan vi se økningen og nedgangen i popularitet til en alternativ stavemåte av cinchona, & # 8220chinchona & # 8221, i midten av 1800-tallet.

Howard & amp Son & fabrikk på City Mills i West Ham

Mer til poenget kan vi søke etter etternavnene til fem av nøkkelpersoner som er involvert i overføringen av cinchona: Clement Markham, Richard Spruce, far og sønn, William og Joseph Hooker og John Eliot Howard. Markham var en indisk kontorgeograf som ledet en utstilling til Peru for å stjele cinchona frø. Gran, en botaniker, samlet ytterligere frø fra New Granada. The Hookers var begge direktører for Kew Gardens, og Joseph overtok etter faren i 1865. Howard var en av sønnene i firmaet Howard & amp Sons, som produserte mye av kininen som ble produsert i Storbritannia. I tillegg til sin ekspertise som produsent, var Howard en ledende ekspert på botanikk i cinchona. Visualiseringen nedenfor viser at mens Markham, Spruce og William Hooker var nøkkelpersoner i den første planleggingen og overføringen tidlig på 1860-tallet, får Howard betydning i korpuset i tiårene som følger.

Den virkelige kraften til Voyant er at når du først har identifisert en interessant trend i dataene, er det mulig å klikke på spissen for Howard i diagrammet ovenfor og oppdatere noen av de andre visualiseringene. Under kan du se & # 8220Howard & # 8221 som et sentralt arbeid i sammenheng under spissen og lenger nede kan du se de faktiske setningene der Howard er nevnt. Med litt mer arbeid kunne jeg ha tatt med URL-adressen til den originale dokumentsiden.


Viser Brooklyn & # 8217 s Urban Layers ved å kartlegge over 200 år med bygninger

Renad Kerdasi
Geovis kursoppgave
SA8905, høst 2015 (Rinner)

Vekst i Brooklyn
Brooklyn ligger i den vestlige enden av Long Island, og er den mest folkerike av New York Citys fem bydeler. Bydelen begynte å utvide seg mellom 1830- og 1860-tallet i sentrum av Brooklyn. Bydelen fortsatte å utvide seg utover som et resultat av en massiv europeisk innvandring, fullføringen av Brooklyn Bridge som forbinder Manhattan og utvidelse av industrien. Ved midten av 1900-tallet var det meste av Brooklyn allerede bygget opp ettersom befolkningen økte raskt.

Data
Dataene i tidsseriekartet er fra PLUTO, som er et åpent NYC-nettsted i NYC opprettet av NYC Department of City Planning og utgitt i 2015. Dataene inneholder informasjon om hver bygning i bydelene, inkludert året bygningen ble bygd ble fullført (i numerisk 4-sifret format) og bygningens fotspor. Byggeårene varierer fra 1800 til 2015, det er noen manglende datoer i datasettet, samt noe unøyaktighet i de registrerte datoene. Dataene er tilgjengelige i Shapefile og Windows Comma Separat format, funnet på NYC Planning nettsted: http://www.nyc.gov/html/dcp/html/bytes/dwn_pluto_mappluto.shtml

The Making of the Time Series
For å presentere de strukturelle episodene av Brooklyn's bygget miljø ble QGIS 2.10 brukt med Time Manager plugin. QGIS er et GIS-program med åpen kildekode som gir datavisualisering, redigering og analyse gjennom funksjoner og plugins (https://www.qgis.org/en/site/about/). Time Manager-pluginet animerer vektorfunksjoner basert på et tidsattributt (https://plugins.qgis.org/plugins/timemanager/). Dette verktøyet var effektivt for å presentere en tidsserie av Brooklyn's byggekonstruksjonsdatoer.

For å lage tidsserien ble PLUTO SHP lastet ned og klargjort ved å fjerne eventuelle unødvendige felt. Kolonnene av interesse er: FID, Shape og YearBuilt. Fordi vi er interessert i tidskolonnen, må formateringen passe med QGIS Time Manager. QGIS Time Manager krever at tidsstemplene skal være i ÅÅÅÅ-MM-DD-format, mens bygningsdatoene i PLUTO SHP er i firesifret format. Derfor må datoen i datasettet endres for å passe til Time Manager-formatet før det kan bringes inn i QGIS.

I QGIS må Time Manager-plugin installeres først. SHP kan deretter legges til i QGIS i tillegg til andre Shapefiles som trengs: veier, motorveier, delstatsgrenser osv. Merk: for å bruke Time Manager må dataene være i SHP-format.

Når dataene er lagt til, blir polygonene (dvs. bygninger) utformet basert på alder. Dette vil være effektivt for å skille de eldste bygningene fra de nyeste. I QGIS er det et stort antall tilgjengelige alternativer for å bruke forskjellige typer symbologi på dataene. Laget er stylet basert på attributtet Year Built, siden tidsserien viser urbane lag ved bruk av bygningsdatoer. Gradated er også valgt fordi funksjonene i laget ikke skal utformes på samme måte. Den andre datafilen, for eksempel veier, motorveier og statsgrenser, er også utformet.

Når alle dataene er lagt til og utformet, kan den orienteres og brukes på Time Manager-plugin. For å virkelig se de urbane lagene blir kartet zoomet på den øvre delen av Brooklyn. I Time Manager-innstillingene legges laget med bygningsdatoer til, og Starttid er året bygget, som inkluderer tidsstempeldata. For å få funksjoner som skal konfigureres permanent på kartet, velges alternativet Sluttid "Ingen sluttid". For animasjonsalternativer vil hver tidsramme vises i 100 millisekunder, og tidsstempel (dvs. bygningsår) vil vises på kartet.

I Time Manager dock endres tidsrammen til år siden animasjonen viser året byggingen av bygningen ble fullført. Tidsrammen vil være 5 år. Med disse innstillingene vil hver ramme vise 5 år med data hvert 100 millisekund. Ved å spille av videoen vises animasjonen inne i QGIS, og man kan se tiden som ruller fra 1800-2015 i kaien.

Time Manager lar deg også eksportere animasjonen til en bildeserie ved å bruke "Eksporter video" -knappen. Faktisk videoeksport er ikke implementert i Time Manager. For å spille av animasjonen utenfor QGIS, kan forskjellige programvareapplikasjoner brukes på den resulterende bildeserien for å lage en videofil.

I tillegg tillater QGIS bare brukere å sette inn en forklaring og tittel i vinduet Composer Manager. For øyeblikket er det ikke mulig å få forklaringen gjengitt i hovedkartvinduet. En tilnærming for å generere en video med en legende er å lage en dummy-legende og legge til bildet som inneholder legenden i PNG-ene som Time Manager produserer. En dummy-legende og en tittel for Brooklyn's urbane lag ble opprettet utenfor QGIS, og ble lagt til hver PNG.

Til slutt, for å lage et tidsforløp og kompilere bildene sammen, ble Microsoft Movie Maker benyttet. Andre programvareapplikasjoner kan brukes, inkludert mancoder og avidemux.


GIS og tid

[Dette er mitt første innlegg for The Otter siden jeg overførte redaksjonen til Josh MacFadyen om sommeren]

En av de største svakhetene ved bruk av GIS til historisk forskning er begrensningene i å vise endring over tid. GIS ble designet med tanke på geografi og inntil nylig trengte historikere å tilpasse teknologien for å dekke våre behov. Generelt betydde dette å lage en serie kart for å vise endring på overtid, eller som Dan MacFarlane gjorde forrige uke, inkluderer etiketter som identifiserer hvordan forskjellige lag representerer forskjellige tidsperioder. Mer nylig introduserte ArcGIS og Quantum GIS funksjoner for å gjenkjenne et tidsfelt i data og gjøre det mulig å inkludere en tidslinjebryter eller animere tidsseriedataene i en video.


Visualisering av forsinkelser på TTC

Geovis Project Assignment @RyersonGeo, SA8905, høst 2018.

Temaet for dette geovisualiseringsprosjektet er TTC. Mer spesifikt, Toronto t-banesystem og dets mange, mange, MANGE forsinkelser. Som noen som ofte må lide gjennom dem, bestemte jeg meg for å gjøre denne ulykken om til noe produktivt og informativt, så vel som noe som ville gi en person som ikke var fra Toronto et nøyaktig bilde av hvordan daglig bruk av TTC er. Et tidsseriekart som viser hver eneste forsinkelse TTC gikk gjennom over en spesifisert tidsperiode. Programvaren som ble valgt for denne oppgaven var Carto, på grunn av sitt rykte som god til å lage tidsseriekart.

Først ble det oppnådd en excel-fil med TTC-t-baneforsinkelser fra Toronto Open Data, der den er organisert etter måned, med dette prosjektet som spesifikt bruker data fra august 2018. Dessverre inkluderte disse dataene ikke XY-koordinater eller spesifikke adresser, noe som gjorde det vanskelig å geokode. Deretter ble en shapefile av T-banelinjer og stasjoner hentet fra et nettsted kalt & # 8220Uoffisiell TTC Geospatial Data & # 8221. Dessverre var disse dataene ufullstendige, siden de sist ble oppdatert i 2012 og inkluderte derfor ikke den nylige utvidelsen i 2017 til Yonge-University-Spadina-linjen. En delvis shapefile av den ble hentet fra DMTI, men den var ikke komplett. For å omgå dette ble csv-filen til stasjonsformen åpnet, de nye stasjonene ble lagt til, breddegrad-lengdegradskoordinatene for alle stasjonene manuelt angitt, og csv-filen geokodet deretter i ArcGIS ved hjelp av & # 8220Display XY Data & # 8221 funksjon for å sikre at punktene var riktig geokodet. Når XY-dataene ble bekreftet å fungere, ble Excel-forsinkelsesfilen lagret som en csv-fil og fikk stasjonsdataene sammen med den. Nå hadde den en liste over både forsinkelser og XY-koordinater for å gå med disse forsinkelsene. Dessverre var ikke alle forsinkelsene brukbare, ettersom omtrent en fjerdedel av dem ikke hadde blitt logget med et spesifikt stasjonsnavn, men snarere den generelle linjen som forsinkelsen skjedde på. Disse forsinkelsene ble kastet siden det ikke var noen måte å vite hvor nøyaktig på linjen de skjedde. Når dette var gjort, ble det opprettet en tidsstempelkolonne ved hjelp av dag- og tidindagskolonnene i csv-filen.

Til slutt ble CSV-filen lastet opp til Carto, hvor stedene ble geokodet ved hjelp av Cartos geokodeverktøy, vist nedenfor.

Det skal bemerkes at csv-filen ble lastet opp i stedet for den allerede geokodede shapefilen fordi eksport av shapefilen ville forårsake et problem med tidsstempelet, spesielt ville den slette timer og minutter fra tidsstempelet, og bare etterlate måned og dag. Ingen løsning på dette ble funnet, så csv-filen ble brukt i stedet. T-banelinjene ble da også lagt til, selv om den delen av den nylige utvidelsen som fortsatt manglet måtte tegnes manuelt. Teknisk sett var forsinkelsene allerede ordnet i kronologisk rekkefølge, men å lage et tidsseriekart bare basert på rekkefølgen gjorde det vanskelig å bestemme hvilken dag i måneden eller tidspunktet på dagen forsinkelsen skjedde. Det er her tidsstempelkolonnen kom inn. Mens Carto først ikke gjenkjente den opprettede tidsstempelet, på grunn av at den ble lagret som en streng, ble en annen kolonne opprettet og strengens tidsstempeldata ble brukt til å lage det faktiske tidsstempelet.

Nå var dataene helt klare til å bli omgjort til et tidsseriekart. Carto har sterkt forenklet prosessen med kartoppretting siden de første dagene. Bare å klikke på laget som må kartlegges, gir en samling faner som data og analyse. For å lage kartet ble stilfanen klikket på, og animasjonsaggregeringsmetoden ble valgt.

Punktens farge ble valgt ut fra verdi, med verdien satt til kodekolonnen, som indikerer hva årsaken til hver forsinkelse var. Den faktiske kolonnen som ble brukt var tidsstempelkolonnen, og alternativer som varighet (hvor lenge animasjonen varer, i dette tilfellet den maksimale tidsbegrensningen på 60 sekunder) og spor (hvor lenge hver hendelse forblir på kartet, i dette tilfellet satt til bare 2 for å holde animasjonen fartsfylt). For å skille animasjonen riktig inn i bestemte dager, ble tidsserie-widgeten lagt til i widget-fanen, plassert ved siden av lag-fanen.

I widgeten ble tidsstempelkolonnen valgt som datakilde, riktig tidssone ble angitt og dagsbøtta ble valgt. Alt annet var igjen som standard.

Alternativet skuffer er der for å velge hvilken tidsenhet som skal brukes til tidsserien din. I teorien skal det antas å variere fra minutter til tiår, men på det tidspunktet dette prosjektet avsluttes, er den minste tidsenheten tilgjengelig av en eller annen grunn dag. Dette var en del av grunnen til at tidsstempelkolonnen er nyttig, da uten den ville begrensningene til bøtta i tidsserie-widgeten ha resultert i at kartet ikke var mer enn en gigantisk puls av hver forsinkelse som skjedde den dagen en gang om dagen . Med tidsstempelkolonnen var animasjonsfunksjonen i stilfanen i stand til å lage en kronologisk animasjon av alle forsinkelsene som, når de ble parret med widgeten, var i stand til å si hvilken dag en forsinkelse skjedde, selv om mangelen på en times bøtte betydde at å finne ut hvilken del av dagen en forsinkelse skjedde krever en viss gjetning basert på hvor indikatoren er, som vist nedenfor

Til slutt måtte en legende opprettes slik at en seer kan se hva hver farge skal bety. Siden de forskjellige fargene på punktene er basert på hendelseskoden, ble dette satt inn i en tilpasset forklaring, som ble opprettet i forklaringsfanen i samme verktøylinje som stil. Dessverre viste det seg umulig ettersom TTC har nærmere 200 forskjellige koder for forskjellige situasjoner, så legenden inkluderte bare de 10 mest vanlige typene og en & # 8220other & # 8221 kategori som omfatter alle andre.

Og det er alt som trengs for å lage et interessant og informativt tidsseriekart. Som du kan se, var det ingen koding involvert. For noen år siden ville det sannsynligvis ha krevd en viss grad av koding å gjøre dette kartet, men Carto har gjort en innsats for å gjøre programvaren enkel å lære og enkel å bruke. Resultatet av handlingene som er beskrevet her kan sees nedenfor.


Kartlegging av West Feliciana Parish & # 8211 A Region in Transition

West Feliciana menighet på begynnelsen av 1800-tallet var en region i overgang. Etter en treg start på slutten av det attende århundre ble West Feliciana Parish raskt et viktig knutepunkt for handel i sent koloniale Louisiana. Før borgerkrigen var havnen i Bayou Sara nummer to for New Orleans i tonnasje som passerte havnen.

& # 8220Et nytt kart over en del av De forente stater i Nord-Amerika som inneholder Carolinas og Georgia. Også Floridas og en del av Bahama-øyene fra de siste myndighetene. & # 8221, Detalj: 1806. Kilde: USF Special Collections Department

Dens politiske situasjon var også i flyt. Felicianas (vest ville dele seg fra øst i 1824) var en del av en politisk omstridt region ved Gulf Coast kalt "West Florida" som strekker seg fra Mississippi-elven til Perdido-elven (nå grensen mellom Alabama og Florida). Felicianas territorium gikk gjennom flere koloniale hender mellom 1760- og 1810-tallet, inkludert det franske, britiske og spanske imperiet. Som en del av West Florida var Felicianas til og med en del av den kortvarige "Republic of West Florida" før de ble annektert til USA i 1810.

Bend of the River i nærheten av Bayou Sara fremhever den sterke forskjellen mellom de alluviale flomslettene langs Mississippi-elven og de løssløse bløffene i West Feliciana Parish.

Endelig er West Felicianas miljø en studie i kontraster. Den vestlige grensen klemmer Mississippi-elven, og en kort sammenligning av moderne og gamle platekart bekrefter hvor dynamisk og dette forholdet har vært. Alluviale flomflater flankerer elva og sumper kryper inn i sognets indre. Mye av soknet sitter på en tykk løsshette (overordnet materiale for jord) som stiger brått fra elvens flom før den sakte avtar mot øst.

West Feliciana Parishs koloniale og miljømessige fortid garanterer etterforskning og GIS tilbyr et nyttig verktøy for å håndtere kompleksiteten. Dette nettkartleggingsproduktet er en prototype for et større prosjekt som vil utforske den miljømessige, økonomiske og sosiale utviklingen i West Feliciana. “Mapping Rural Development in Early Louisiana” vil dokumentere utviklingen av West Feliciana Parish fra kolonitiden til borgerkrigen og fremhever endringer i bosetting, økonomi og kultur i regionen. Dette innlegget dokumenterer nylig arbeid utført av meg selv, Dr. Sara Sundberg fra University of Central Missouri, og assistansen fra lavere student Miranda Lonsdale ved Creighton University.

Som et første trinn i dette prosjektet, var vi nysgjerrige på hvor mye tidlige amerikanske poster kunne avsløre om koloniale bosettingsmønstre. Da West Feliciana Parish gikk over i amerikanske hender, sto den nye amerikanske regjeringen overfor den vanskelige oppgaven med å forvalte sine nye land og bekrefte rettighetene til forutgående bosetting. Koloniale bosettere hadde gjort krav på West Feliciana-land så tidlig som i 1780-årene, noen under britene, noen under spanske regjeringer. Den amerikanske regjeringen forsøkte å respektere disse påstandene ved å utnevne en landkommisjonær til å bekrefte de koloniale landtitlene og bevare lønnsom, juridisk oppgjør. Kommisjonærer presenterte dette beviset, inkludert tidligere titler og undersøkelser til kongressen.

US Tract Book Vol 4, Side 148 (Greensburg District)

Som et resultat har historikere en rekke forskjellige kilder tilgjengelig for å rekonstruere tidlig bosetting, inkludert plass (kartleggingskart), dokumentasjon på landskader (bevis på bosetting og / eller kjøp), traktatbøker (journal over solgt eller gitt eiendom), og de amerikanske statspapirene (dokumentene fra kongressbekreftelsene). Vi brukte tre av de fire kildene for denne fasen av prosjektet, som alle var tilgjengelige via LA State Records Office eller Library of Congress. American State Papers ga informasjon om opprinnelige kravsøker samt andragere for amerikanske tilskudd. Amerikanske traktatbøker som var plassert i forsamlingsrettshusene og som var tilgjengelige online, var håndskrevne kontoer som var direkte knyttet til informasjon samlet i felten og korresponderte ofte med tekst- og geografisk informasjon som ble gitt på platekart. Disse platsene var organisert i henhold til Township and Range-systemet, selv om en stor del av West Feliciana Parish allerede var hevdet og ikke ville bli offentlige land.

Old Plat Kart for District Greensburg T1S R2W. Plat-kart viser vanligvis økonomisk nyttig informasjon, for eksempel veier, vannveier og eiendomslinjer. Eldre plats inkluderer vanligvis notater fra landmålere, og tabellen til høyre inkluderer nåværende beboer, seksjonsnummer og tomteområdet.

De viktigste spørsmålene på dette stadiet av prosjektet var stort sett metodiske. I hvilken grad kunne disse kildene spore regionens tidlige bosettingshistorie? Resultatene er lovende, men ikke uten problemer. Dette første kartet fremhever datoen for opprinnelige koloniale påstander i West Feliciana. Den tidligste var i 1787 i den spanske perioden, og den siste kom i 1812 i den amerikanske perioden.

Dette kartet er interaktivt. Klikk på de enkelte seksjonene for å avdekke informasjonen som er tilgjengelig fra disse kildene. Popups inneholder lenker til American State Paper-bilder som mye av informasjonen er hentet fra.

En ting som er påfallende med disse dataene er antallet som ikke har noen original kravinformasjon. Dette er ikke overraskende med tanke på den fragmenterte naturen til postene, og fordi et betydelig antall krav er krigere. (1) Denne forskjellen er tydelig hvis du sammenligner et kart over bevarte koloniale krav med et kart over de påstandene som er bekreftet av kongressen.

Mange flere poster er fortsatt den bekreftelsen på notatet enn krav. Selv om dette ikke i seg selv er overraskende av grunnene nevnt ovenfor, er graden du kan se denne forskjellen skarp og kan vise seg å være problematisk for en robust analyse i fremtiden.

British Grant & # 8211 Greensburg District s. 1-362, A3

Hvor forlater dette oss? I tillegg til å bekrefte fraværet av kravdata i American State Papers, kan vi nå gå til den faktiske landdokumentasjonen som ble brukt av den amerikanske regjeringen for å bekrefte landtitler. Disse inkluderer ikke bare kravinformasjon, men i noen tilfeller tildeler de faktiske britiske eller spanske landene seg selv. Heldigvis har mange poster blitt digitalisert og er tilgjengelige gjennom Louisiana State Land Records Office. Annet er tilgjengelig på Library of Congress. Enda flere poster kan bli funnet i England eller Spania, selv om vi ennå ikke har undersøkt denne muligheten. Selv om de ikke er så systematiske som traktatbøkene eller amerikanske statspapirer, kan disse kildene være de beste stedene å henvende seg for å finne ut identiteten til disse unnvikende tidlige pionerene i West Feliciana Parish.

1) Carolyn French, Land Survey and Land Acquisition in Florida Parishes of Louisiana, Man and Environment in the Lower Mississippi Valley (1978) 111-121).


Kategorier for Torque Cat i CartoDB - Geographic Information Systems


En metabolsk vei er en serie kjemiske reaksjoner som forekommer i en celle. Hver metabolske vei består av en serie biokjemiske reaksjoner som er forbundet med deres mellomprodukter: produktene fra en reaksjon er substratene for påfølgende reaksjoner, og så videre.

Du kan nå utforske disse metabolske banene på en ny Interaktivt metabolske baner Kart . Kartet, opprettet med Google Maps API, lar deg utforske alle metabolitter, enzymer og utvalgte veier.

Det som er spesielt imponerende med dette bildekartet over metabolske veier er at det er fullt interaktivt og søkbart. Du kan velge hvilket som helst av karbohydrater, aminosyrer, lipider eller puriner og amp-pyrimidiner på banekartet for å lære mer om dets rolle i den metabolske veien. Du kan også søke etter noen av funksjonene etter navn for raskt å finne dem på kartet.


Det har vært en lang tradisjon med å bruke Google Maps API til å kartlegge menneskekroppen. Et av de første eksemplene var NYU School of Medicine Virtual Microscope.

Created by the NYU School of Medicine the Virtual Microscope uses the Google Maps API to display and navigate scanned slides of microscopic images. Students and faculty members who are logged into the school's Learning Management System can even add markers to the slides to annotate and comment on slide features.


The University of New South Wales is following in this tradition by using the Google Maps to create maps of human tissue down to the individual cell. You can already explore the first map of human hip tissue .

This Google Map allows you to explore images captured with a scanning electron microscope. Creating map tiles from the electron microscope images allows the university to create an interactive map of the hip tissue. The result is this Google Map which allows researchers to pan and zoom into details in the microscope images, just as you can with any interactive map.


The Genome Projector is a searchable database browser that uses the Google Maps API to provide a zoomable user interface for molecular biology. The Genome Projector currently contains four views, the Genome map, the Plasmid map, the Pathway map, and DNA walk.

The Genome Projector says that "In molecular biology, looking at reactions and behaviors of specific molecular components in microscopic levels is important. . Therefore, researchers need a scalable point of view, having access to all of the microscopic, macroscopic, and mesoscopic levels of biological knowledge. Moreover, biological data is highly multi-dimensional by nature, and understanding of the data requires multiple views, layers, or projections . "


圖1: 可下載Garmin機台可讀的OSM圖資 (garmin.openstreetmal.nl)

步驟很簡單,在圖1中,可以選單方式選擇所需區域,或者勾選手動的方式,選定一個或多個區域,筆者只需要越南河內,因此只選擇河內單一區域,然後填上你的email,按下”Build your map”,如圖2所示,系統會自動產生你所需的IMG檔,並email給你。

圖4: OSM圖資在Garmin Dakota 20


開放街圖研討會 State of the Map (SotM) 2012

其實2005年就加入OSM成為Mapper,2010年才註冊為OSM Foundation會員,從沒有參加過每年一次OSM的研討會(State of the Map),一直是一個單純的mapper。在我的研究領域中,OSM是一個研究標的,如Muki Maklay 所建議,研究人員應該站在局外人的角度來看OSM,也因此長久以來,我並不想涉入太多OSM體制內的事,然而,2011年底,從荷蘭返台後,逐漸覺得台灣雖然有OSM社群,但多數台灣人是不知道OSM是什麼的,開始有想法在台灣來推動OSM。

SotM 2012 會場東京大學駒場校區 Tokyo University Komaba Research Campus

對於我而言,推動OSM中的第一步就是參加SotM 2012,去這種大會有機會和許多高手或主要成員聊天,也才有可能進一步了解OSM內部的運作模式。很幸運的,年初宣布2012年SotM在日本東京舉辦,台灣和日本地理上算是近的,台灣的社群怎麼可以不去,所以鼓吹台灣OSM重要的二個推手,Louis和Sin-Di也一起參加,Louis的高雄市公車被接受於大會中演講,看到台灣社群如此積極的參與,會議的主要組織者之一 Daniel Kastl 還說他在這之前從來不知道台灣社群如此活躍。在大會開始前,主辦單位將投稿內容做成tag cloud,Taiwan可是主要的tag之一。

會議的三天的議程相當豐富,有來自於世界各國的OSM Mappers的報告,包含災害救援、導航技術、製圖技術和社群發展。第一天所有的主題都與防救災有關,自海地地震後,OSM就一直和救災相關議題有相當強的連結,因為2011年東日本大地震的關係,如何用OSM來救災也成為日本重要的議題,因此有4個講題是來自東日本大地震間使用OSM製圖的經驗和技術,其中Kinya Inoue先生就是福島人,當他述說著福島在東日本大地震前和後,地圖如何改變,提到過去的朋友和親人在這樣的巨變中喪生,每每不能控制自已,同時,讓在場每一個參與的人動容。我也註冊了第一天的Lightning talk,簡單介紹了如何使用簡易輻射計數器來量測環境輻射,以抵抗台電官方輻射安全的說法,當時舉的例子就是蘭嶼,不過這個計畫因為沒有順利拿到Safecast的裝備而延宕中。

Steve Coast 在SotM 2012的開場

第二天,二個keynotes很有趣,Jaak利用OSM來環境整潔(clean up)計畫。接著,Raul Krauthausen,wheelmap.org的創辦人,報告了wheelmap成立的經過,他本身就是殘障人仕,個人覺得這個應用對於殘障人仕是相當有幫助的,可以用地圖查詢和瀏覽公共空間是否有殘障設施,在這之前就已經知道這個應用,現在Sin-di正在將它中文化。上午的整個session都在談如何用OSM做導航或路徑規劃,Louis 在keynote後上場,這是一個相當實務的經驗,拿OSM的地圖來做公車導航,他一開始就用日本地名開了一個玩笑,會後Mapping party要去的地點是高尾山(Mt. Takao),就是高雄舊名打狗,他玩趣的說,我今天要講的地點是Takao,但不是你們將去的Takao,我講的Takao需要買機票坐飛機去,全場笑了!下午換了跑道到日本語的track,本來是想聽聽如何做GPS logger,但講者不知道為什麼沒有來報告。晚上的宴會是在東京灣的船形屋(YAKATA-BUNE)宴會,吃不完的生魚片,喝不完的啤酒,吃飽喝足再上船頂欣賞東京灣的夜景,很棒的晚宴。

第三天,除了探討資料品質和停車格製圖外,引起我比較多關注的是利物浦大學教授Bob Barr的演講,他以Pirate 和Pilot 辯思在他(mappers)在OSM中所扮演的角色,風趣幽默的演講方式引人入勝,也帶入mapper在OSM所扮演的角色的思考。接下來4個mapping的talks都相當棒,就不一一介紹,印象深刻的是Kinya Inoue先生,就是之前講福島災後製圖的那位,他的英文表達能力有限,但內容極豐富有趣,是一個了不起的mappers,或OSM製圖家? 下午的talks一樣精彩,老實說我差一點就跑去閒逛,因為已經第三天的了,但最後一個talk,讓人精神大振,Tim Waters講你知道什麼時候對OSM上癮,可能是在場都是癮頭很重的mappers (不然怎麼大老遠從世界各地來),他舉的例子搞的大家笑不停。


Se videoen: Cat Drive Train Delivers Incredible Torque for High Impact Loads (September 2021).